Forscher testen KI im Bewerbungsgespräch – Droht uns digitale Diskriminierung?
Immer mehr Firmen setzen im Bewerbungsgespräch auf einen Chatbot. Ein US-Projekt prüft, ob das Verfahren Bewerber benachteiligt.

Forscher der Rice University und der University of Florida prüfen, ob KI-gestützte Chatbots im Bewerbungsgespräch Bewerber benachteiligen. © Unsplash
Früher hieß bewerben: Lebenslauf ausdrucken, Unterlagen zusammenstellen, sich ordentlich anziehen und einem Personalchef gegenübertreten. Heute läuft dieser erste Eindruck oft digital ab – manchmal sogar ohne menschlichen Kontakt. Immer mehr Unternehmen setzen auf Programme, die Fragen stellen, Antworten bewerten und vorschlagen, wer eingestellt werden soll. Das Bewerbungsgespräch führt dann kein Mensch mehr, sondern ein Chatbot – gesteuert durch künstliche Intelligenz.
Experten aus den USA wollen nun in einer Studie untersuchen, ob solche Systeme fair arbeiten. Unter der Leitung der Psychologin Tianjun Sun von der Rice University forscht ein Team gemeinsam mit der University of Florida, wie Chatbots Entscheidungen treffen – und ob sie dabei ungewollt benachteiligen.
Chatbot im Bewerbungsgespräch sorgt für Effizienz
Chatbots können rund um die Uhr Bewerber interviewen, stellen stets dieselben Fragen und werten Antworten direkt aus. Das spart Zeit – und Geld. Besonders bei Stellen mit vielen Bewerbungen sehen Unternehmen klare Vorteile.
Außerdem reagieren Maschinen immer gleich. Ein Algorithmus hat keine Launen, keine Vorurteile, keine Müdigkeit. Die erste Auswahl wird dadurch planbarer – zumindest theoretisch.
Wo Bewerber ins Hintertreffen geraten können
In der Praxis sieht das anders aus. Denn ein Algorithmus bewertet nicht nur, was gesagt wird, sondern auch, wie. Sprachstil, Ausdruck oder ein Akzent können das Ergebnis beeinflussen – auch wenn die Aussage sachlich richtig ist.
„Zwei Bewerber können im Grunde dieselbe Antwort geben. Doch der Algorithmus verarbeitet sie möglicherweise unterschiedlich. Das kann zu unfairen oder unzutreffenden Einstellungsentscheidungen führen“, warnt Tianjun Sun.
Wenn Technik Ungleichheit verstärkt
Je mehr Firmen solche Systeme nutzen, desto größer wird das Risiko, dass bestehende Ungleichheiten am Arbeitsmarkt verstärkt werden. Wer bereits benachteiligt ist – durch Herkunft, Sprache oder mangelnden Technikzugang – hat es im digitalen Verfahren womöglich noch schwerer.
Deshalb fordern Fachleute klare Regeln: Bewertungsprozesse müssen nachvollziehbar sein. Ein System, das Menschen beurteilt, darf kein undurchsichtiger Code bleiben.
Der Chatbot im Test
Das Forschungsteam hat einen eigenen Chatbot entwickelt. Dieser führt Bewerbungsgespräche in Kurzform und erstellt anschließend ein Persönlichkeitsprofil auf Basis des bekannten „Big-Five“-Modells. So lässt sich untersuchen, welche sprachlichen Merkmale in die Bewertung einfließen und wie daraus Entscheidungen entstehen.
Im Zentrum stehen dabei drei Fragen:
- Welche Merkmale nutzt die KI bei der Bewertung?
- Wie wirken sich diese Merkmale auf das Ergebnis aus?
- Erleben Bewerber den Ablauf als fair und nachvollziehbar?
Das Ziel: Verzerrungen erkennen, benennen und Verbesserungsvorschläge entwickeln – technisch wie ethisch.
Psychologische Perspektive auf Technik
Sun spricht in diesem Zusammenhang von „psychometrischer KI“. Damit meint sie die Verbindung psychologischer Messmethoden mit modernen Algorithmen. „Informatiker fragen oft, ob ein Algorithmus gute Vorhersagen trifft. Psychologen hingegen stellen eine andere Frage: Sagen wir wirklich das voraus, was wir glauben – und läuft der Prozess fair ab?“
Neben der Forschung kümmert sich das Team auch um den Wissenstransfer. Studierende werden im verantwortungsvollen Umgang mit KI geschult. Geplant sind zudem digitale Werkzeuge, etwa Dashboards für Personalabteilungen, die den Auswahlprozess transparenter machen sollen.
Kurz zusammengefasst:
- Immer mehr Unternehmen setzen einen Chatbot im Bewerbungsgespräch ein, um Kandidaten automatisiert zu bewerten und Entscheidungen vorzubereiten.
- Für Bewerber besteht die Gefahr, dass KI-Systeme gleiche Antworten unterschiedlich beurteilen – abhängig von Sprache, Herkunft oder Ausdrucksweise.
- Ein Forschungsprojekt der Rice University entwickelt Standards, um solche automatisierten Auswahlverfahren transparenter, gerechter und nachvollziehbarer zu machen.
Übrigens: Künstliche Intelligenz lügt nicht nur auf Befehl – sie senkt auch unsere Hemmschwelle dazu. Wie leicht Menschen moralisch fragwürdige Entscheidungen an Chatbots abgeben, zeigt eine neue Studie. Mehr dazu in unserem Artikel.
Bild: © Unsplash