The Great Pretender: KI-Modelle liefern immer häufiger Unsinn – und Nutzer merken es nicht
Große KI-Modelle geben immer häufiger falsche Antworten, weil sie jede Frage beantworten wollen. Nutzer erkennen den Unsinn oft nicht sofort.
Große KI-Modelle werden immer leistungsfähiger. Doch je größer sie werden, desto stärker neigen sie dazu, auf jede Frage eine Antwort zu geben – auch wenn diese falsch ist. Eine aktuelle Studie, veröffentlicht in der Fachzeitschrift Nature, zeigt, dass viele Menschen oft nicht erkennen, wann die KI Unsinn produziert. Genau darin liegt die Gefahr: Die KI tut so, als hätte sie auf alles eine Antwort, und viele Nutzer bemerken das nicht.
KI weiß mehr und liefert dennoch mehr Unsinn
José Hernández-Orallo und sein Team vom Valencian Research Institute for Artificial Intelligence in Spanien haben drei große KI-Modelle untersucht: OpenAI’s GPT, Meta’s LLaMA und BLOOM. Die Forscher stellten fest, dass diese Modelle zwar oft korrekte Antworten liefern, aber auch zunehmend falsche Ergebnisse erzeugen. Der Grund: Die KI gibt immer seltener zu, dass sie etwas nicht weiß.
„Mittlerweile beantworten sie fast jede Frage – sie geben mehr richtige, aber auch deutlich mehr falsche Antworten“, erklärt Hernández-Orallo gegenüber Nature. Anstatt einfach zu sagen: „Ich weiß es nicht“, erfinden die KI-Modelle lieber eine Antwort, selbst wenn diese völliger Unsinn ist. Ganz nach Freddie Mercury: „Oh yes, I’m the great pretender, pretending I’m doing well.“ Die Modelle wirken überzeugend, auch wenn sie ins Leere laufen. Der Philosoph Mike Hicks von der Universität Glasgow fasst es treffend zusammen:
Die KI wird immer besser darin, so zu tun, als wüsste sie alles.
Mike Hicks
Künstliche Intelligenz: Der Schein trügt
In der Studie testeten die Forscher Tausende Fragen aus Bereichen wie Mathematik, Geografie und Naturwissenschaften. Sie wollten herausfinden, wie oft die KI-Modelle richtig lagen und wie oft Nutzer falsche Antworten nicht bemerkten. Vor allem bei schwierigen Fragen traten viele Fehler auf, doch auch bei scheinbar einfachen Fragen, wie „Was ist die Hauptstadt von Kanada?“, lagen die KI-Modelle gelegentlich daneben.
Besonders problematisch: Menschen erkennen die fehlerhaften Antworten nicht immer. In der Studie bewerteten Teilnehmer die Antworten der KI und stuften zwischen 10 und 40 Prozent der falschen Aussagen als korrekt ein. Je komplexer die Frage, desto schwerer fiel es den Teilnehmern, die Fehler zu bemerken.
KI-Modelle schweigen selten, auch wenn sie sollten
Ein zentrales Problem ist, dass KI-Modelle keine klare Grenze ziehen, wann sie besser keine Antwort geben sollten. Statt bei schwierigen Fragen einzugestehen: „Das weiß ich nicht“, liefern sie lieber eine fehlerhafte Antwort. Bei besonders herausfordernden Fragen stieg die Fehlerquote in einigen Fällen auf über 60 Prozent.
Die Nature-Studie stellt fest, dass es für Nutzer keine „sichere Zone“ gibt, in der sie sich auf die Antworten der KI verlassen können. Selbst bei alltäglichen Fragen kann die KI Unsinn liefern.
Mehr zum Thema KI:
- KI argumentiert gegen Verschwörungstheorien – mit Erfolg
- Karrierefaktor KI: Bald so unersetzlich wie Word und Excel?
- Wie KI hilft, das Rätsel der Gerüche zu lösen: Wird man künftig Krankheiten riechen können?
Mehr Vorsicht bei der Nutzung von KI erforderlich
Hernández-Orallo fordert, dass KI-Entwickler verstärkt darauf achten, dass die Modelle bei schwierigen Fragen häufiger auf eine Antwort verzichten. „Menschen müssen verstehen, in welchen Bereichen sie die KI sicher nutzen können und wann Vorsicht geboten ist“, betont er.
Spezialisierte KI-Modelle, etwa in der Medizin, geben bereits häufiger zu, wenn sie bei einer Frage nicht Bescheid wissen. Doch bei kommerziellen Chatbots, die viele verschiedene Fragen beantworten sollen, wird diese Zurückhaltung selten gefördert. Unternehmen bevorzugen oft KI-Modelle, die immer eine Antwort parat haben – selbst wenn diese nicht immer korrekt ist.
Was du dir merken solltest:
- Größere KI-Modelle liefern zunehmend falsche Antworten, weil sie lieber eine Antwort erfinden, als zuzugeben, dass sie etwas nicht wissen.
- Studien zeigen, dass Nutzer diese falschen Antworten oft nicht erkennen, besonders bei komplexen Fragen.
- KI-Modelle sollten bei schwierigen Fragen eher schweigen, doch sie neigen dazu, auch dann zu antworten, wenn sie keine korrekten Informationen haben.
Übrigens: Forscher haben mit künstlicher Intelligenz die Sprache der Schweine entschlüsselt – und die variiert je nach Haltungsform. Wie das genau funktioniert und was die Wissenschaftler herausgefunden haben, erfährst du in unserem Artikel.
Bild: © Midjourney
1 thought on “The Great Pretender: KI-Modelle liefern immer häufiger Unsinn – und Nutzer merken es nicht”