Weibliche KI wird öfter ausgenutzt – Menschen übertragen Rollenbilder auf Maschinen
Menschen projizieren ihre Geschlechterstereotype auf Künstliche Intelligenz: Eine LMU-Studie zeigt, dass „weibliche“ KI-Systeme häufiger benachteiligt werden.
In einem Experiment zeigten sich klare Muster: KI-Systeme mit weiblichen Merkmalen stießen auf weniger Vertrauen und wurden häufiger benachteiligt als männliche. © Vecteezy
KI soll objektiv sein und weder Emotionen noch Vorurteile haben. Doch offenbar sind nicht die Maschinen das Problem, sondern wir. Eine neue Studie zeigt: Menschen übertragen ihre eigenen Denkmuster auf KI-Systeme. Besonders deutlich wird das, wenn es um Geschlechterrollen geht.
Wissenschaftler der Ludwig-Maximilians-Universität München (LMU) und des Trinity College Dublin haben untersucht, wie Nutzer auf „weiblich“ oder „männlich“ markierte KI reagieren. Mehr als 400 Teilnehmer spielten dafür ein strategisches Spiel, bei dem sie entscheiden mussten, ob sie kooperieren oder ihr Gegenüber ausnutzen. Das Ergebnis überrascht: „Weibliche“ KI-Systeme wurden deutlich häufiger benachteiligt als „männliche“.
Menschen bringen ihre Vorurteile mit
Im Versuch trafen die Teilnehmer auf verschiedene Partner – mal Menschen, mal Maschinen. Die Partner wurden zusätzlich mit einem Geschlecht versehen: männlich, weiblich, nicht-binär oder neutral.
Das Ergebnis war eindeutig. Menschen vertrauten „männlichen“ KI-Systemen seltener, während „weibliche“ Systeme stärker ausgenutzt wurden. In manchen Fällen war der Umgang mit den weiblich markierten Maschinen sogar noch unfairer als mit echten Gesprächspartnerinnen.
„Diese Studie weist auf ein wichtiges Dilemma hin“, erklärt Dr. Jurgis Karpus von der LMU. „KI-Agenten mit menschenähnlichen Eigenschaften auszustatten, kann die Zusammenarbeit zwischen Menschen und KI fördern, birgt jedoch auch die Gefahr, dass unerwünschte geschlechtsspezifische Vorurteile übertragen und verstärkt werden.“
Warum Vorurteile gegenüber der KI so schwer zu vermeiden sind
Die Wissenschaftler nutzten für ihre Experimente das bekannte „Gefangenendilemma“ aus der Spieltheorie. Dabei müssen die Teilnehmer entscheiden, ob sie auf Kooperation oder Eigennutz setzen. Dieses Modell erlaubt es, Vertrauen und Misstrauen messbar zu machen – auch gegenüber künstlichen Partnern.
Dass Menschen ihre Denkmuster selbst in den Umgang mit Maschinen einbringen, ist kein neues Phänomen. Doch die LMU-Studie zeigt, wie tief diese Reaktionen reichen. Schon die Information, ob ein System „männlich“ oder „weiblich“ ist, reicht offenbar, um das Verhalten zu verändern.
Besonders spannend ist, dass sich die Effekte nicht nur auf das Geschlecht beschränkten. Auch Faktoren wie Name, Stimme oder Formulierungsstil beeinflussten, wie sehr die Teilnehmer des Experiments der KI vertrauten. Selbst kleinste Signale weckten vertraute Stereotype.
Geschlechtliche Zuschreibungen wirken subtil
Viele KI-Systeme im Alltag – etwa Sprachassistenten oder Chatbots – besitzen Namen oder Stimmen, die ein Geschlecht nahelegen. Diese Entscheidungen sind selten zufällig. Sie sollen Nähe schaffen, Vertrauen fördern oder sympathisch wirken.
Doch genau das kann problematisch sein. Wenn etwa ein virtueller Assistent mit weiblicher Stimme automatisch für Hilfsaufgaben eingesetzt wird, verstärkt das bestehende Rollenmuster. Umgekehrt führt ein „männliches“ Auftreten oft zu größerer Autorität – selbst wenn beide Systeme technisch gleich sind.
Experten fordern deshalb, solche Gestaltungsentscheidungen bewusster zu treffen. KI-Design sei kein rein technisches Thema, sondern auch eine soziale Verantwortung.
Wie Entwickler reagieren können
Für Unternehmen und Entwickler ergibt sich daraus eine klare Aufgabe: Sie müssen prüfen, welche Wirkung ihre Systeme auf unterschiedliche Nutzergruppen haben. Hilfreich kann sein, Testläufe mit gemischten Gruppen durchzuführen und gezielt nach Wahrnehmungsverzerrungen zu suchen. Auch geschlechtsneutrale Designs oder flexible Einstellungen könnten helfen, unbewusste Vorurteile abzumildern.
Die Forscher empfehlen drei zentrale Schritte:
- Bewusstes Design: KI-Systeme sollten keine unnötigen Geschlechterzuschreibungen tragen, wenn sie nicht funktional nötig sind.
- Vielfältige Testgruppen: Unterschiedliche Perspektiven helfen, subtile Bias-Effekte zu erkennen.
- Schulung der Entwickler: Teams sollten sich ihrer eigenen Stereotype bewusst werden, um unfaire Strukturen gar nicht erst zu reproduzieren.
Wer einer „weiblichen“ KI weniger zutraut oder sie stärker ausnutzt, überträgt gesellschaftliche Ungleichheiten in die digitale Welt. Genau das gilt es, zu verhindern. „Da KI zunehmend Teil unseres Alltags wird, ist es wichtig, die Geschlechterdarstellung bei der Gestaltung sorgfältig zu berücksichtigen“, so Karpus. Ziel sei es, Vertrauen aufzubauen, ohne alte Vorurteile zu verstärken.
Kurz zusammengefasst:
- Menschen übertragen ihre Geschlechterstereotype auf KI-Systeme: In einer LMU-Studie vertrauten Teilnehmer „männlicher“ KI weniger und nutzten „weibliche“ häufiger aus.
- Bereits kleine Signale – etwa Name, Stimme oder Beschreibung – reichen aus, um Verhaltensunterschiede hervorzurufen, selbst wenn klar ist, dass keine echte Person beteiligt ist.
- Experten empfehlen, KI bewusster zu gestalten, um unfaire Rollenbilder zu vermeiden – etwa durch neutrale Designs, vielfältige Testgruppen und Schulungen für Entwickler.
Übrigens: Auch Maschinen haben Vorurteile – eine Studie der Universität Zürich zeigt, dass KI Texte anders bewertet, sobald sie die Quelle kennt. Mehr dazu in unserem Artikel.
Bild: © Vecteezy
