KI hat Vorurteile – und bewertet je nach Quelle unfair
Eine Studie der Universität Zürich zeigt: Künstliche Intelligenz urteilt nicht neutral – sie bewertet Texte anders, sobald die Quelle bekannt ist.
Künstliche Intelligenz urteilt unterschiedlich, je nachdem, wem sie einen Text zuschreibt – ein Hinweis auf versteckte KI-Vorurteile. © Pexels
Künstliche Intelligenz beeinflusst längst Entscheidungen im Alltag – von Bewerbungen über Schulaufgaben bis zur Moderation in sozialen Netzwerken. Sie gilt als neutral, rational und frei von menschlichen Schwächen. Doch das stimmt offenbar nicht ganz. Eine aktuelle Studie zeigt, dass selbst modernste Sprachmodelle nicht objektiv urteilen. Die Bewertungen verändern sich – allein durch die Information, wer angeblich hinter einem Text steckt.
Reagiert die KI bereits auf Hinweise zur Herkunft oder Identität eines Autors, entsteht ein gefährlicher Mechanismus: Sie bewertet denselben Text plötzlich anders, nur weil sie glaubt, zu wissen, wer ihn geschrieben hat – und übernimmt damit unbewusst genau die Vorurteile, die sie eigentlich vermeiden sollte.
Wenn die Quelle wichtiger ist als der Inhalt
Ein Forschungsteam der Universität Zürich wollte genau wissen, wie neutral künstliche Intelligenz wirklich urteilt. Dazu ließen die Wissenschaftler vier bekannte Sprachmodelle zu 24 gesellschaftlich brisanten Themen Texte verfassen – darunter Impfpflicht, Klimapolitik und internationale Konflikte.
Anschließend sollten dieselben Modelle ihre eigenen Texte bewerten. Mal ohne jede Information, mal mit einem Hinweis auf den vermeintlichen Autor. Das Ergebnis: Ohne Herkunftsangabe urteilten die Modelle fast identisch – in über 90 Prozent der Fälle kamen sie zu denselben Einschätzungen. Doch sobald eine Quelle genannt wurde, veränderten sich die Bewertungen massiv. Besonders auffällig: Texte, die angeblich aus China stammten, schnitten deutlich schlechter ab.
Ein Hinweis reicht für eine verzerrte Bewertung
„Diese weniger positive Beurteilung trat selbst dann auf, wenn die Argumentation logisch und gut geschrieben war“, erklärt Studienautor Federico Germani. Besonders sensibel reagierten die Systeme bei politischen Themen, etwa zur Souveränität Taiwans. In solchen Fällen fiel die Zustimmung um bis zu 75 Prozent – obwohl der Text inhaltlich identisch blieb.
Selbst das chinesische Modell DeepSeek zeigte denselben Trend. Für Germani ein klares Signal: „Die Modelle sind nicht ideologisch programmiert. Sie reagieren auf die Vorstellung, wer spricht.“
Vertrauen in Menschen, Skepsis gegenüber Maschinen
Die Forscher beobachteten außerdem, dass die KIs Menschen grundsätzlich mehr vertrauten als anderen KIs. Wenn sie glaubten, ein Text stamme von einem Menschen, fiel das Urteil wohlwollender aus. Bei maschinell erzeugten Texten sank die Bewertung – selbst ohne inhaltliche Begründung.
Dieses Muster deutet auf ein erstaunlich menschliches Verhalten hin. Die Systeme bevorzugen das, was sie für „authentisch“ halten, und misstrauen anderen Maschinen – obwohl sie selbst Maschinen sind. Ein eingebautes Paradox, das laut den Forschern Konsequenzen für viele Lebensbereiche haben kann.
Welche Folgen KI-Vorurteile für uns haben
Denn große Sprachmodelle werden zunehmend in Prozessen eingesetzt, in denen Fairness entscheidend ist:
- Im Bildungswesen: Wenn sie Schüleraufsätze oder Bewerbungen für Stipendien bewerten.
- In Unternehmen: Wenn sie Bewerberprofile analysieren oder Texte filtern.
- In sozialen Medien: Wenn sie entscheiden, welche Beiträge als glaubwürdig gelten.
Wenn ein System auf die Nationalität oder vermeintliche Identität des Autors reagiert, kann das Menschen im echten Leben benachteiligen.
Mehr Transparenz beim Einsatz
Die Forscher der Universität Zürich fordern deshalb mehr Kontrolle. „KI wird solche schädlichen Annahmen reproduzieren, wenn wir nicht für Transparenz sorgen“, warnt Germani. Der erste Schritt sei, sich der Voreingenommenheit bewusst zu werden.
Als praktische Empfehlung schlagen die Wissenschaftler vor:
- Einen Text zweimal bewerten zu lassen – einmal mit und einmal ohne Quellenangabe.
- Die Ergebnisse anschließend miteinander zu vergleichen.
So lasse sich schnell erkennen, ob ein Modell voreingenommen reagiert. Auch der Abgleich mehrerer Systeme könne helfen, Verzerrungen sichtbar zu machen.
Sprachmodelle sollen unterstützen, nicht ersetzen
Statt Künstliche Intelligenz also als unfehlbare Entscheidungshilfe zu sehen, sollte sie eher als Werkzeug verstanden werden. „LLMs sind am sichersten, wenn sie zur Unterstützung beim Denken eingesetzt werden und nicht als Ersatz dafür“, so Germani. Der Schlüssel liegt also darin, dass Menschen und Maschinen gemeinsam Aufgaben lösen – und nicht gegeneinander arbeiten.
Diese Haltung verhindert, dass automatische Bewertungen einer Maschine über Karrieren, Forschung oder öffentliche Debatten entscheiden. Nur wer versteht, wie KI tickt, kann sie sinnvoll einsetzen – ohne sich blind auf ihre Urteile zu verlassen.
Kurz zusammengefasst:
- Künstliche Intelligenz bewertet Texte unterschiedlich, sobald sie glaubt zu wissen, wer sie verfasst hat – die vermeintliche Quelle beeinflusst das Urteil stärker als der Inhalt.
- Experten der Universität Zürich fanden heraus, dass Sprachmodelle Menschen mehr vertrauen als anderen KIs und bei bestimmten Nationalitäten, etwa China, deutlich kritischer urteilen.
- Die Wissenschaftler empfehlen, Bewertungen immer zu überprüfen und KI-Systeme nur als Unterstützung zu nutzen – nicht als Ersatz für menschliches Denken.
Übrigens: Forscher haben eine KI entwickelt, die Bilder erstmals mit echtem Menschenverstand versteht – inklusive Bedeutung und Kontext. Mehr dazu in unserem Artikel.
Bild: © Pexels
