ChatGPT als Therapeut: Psychologen warnen vor 15 groben Ethikverstößen
Studie deckt 15 schwere Fehler auf: ChatGPT reagiert bei seelischen Krisen teils falsch und verstärkt negative Gedanken.
Digitale Assistenten wie ChatGPT wirken einfühlsam, sind aber nicht für seelische Krisen gemacht und können falsche Sicherheit vermitteln. © Pexels
Immer mehr Menschen reden über ihre Ängste, Zweifel und Krisen nicht mehr mit einem Therapeuten – sondern mit einer KI. Therapieplätze sind rar, Wartezeiten oft monatelang, viele können oder wollen sich regelmäßige Sitzungen nicht leisten. ChatGPT antwortet dagegen sofort, kostenlos und rund um die Uhr. Doch Psychologen warnen: Wer sich in seelischen Ausnahmesituationen auf einen Chatbot verlässt, geht ein riskantes Spiel ein.
Eine 18 Monate dauernde Studie zeigt nun, wie ernst die Lage ist. Psychologen nahmen 137 Beratungsgespräche mit KI-Systemen genau unter die Lupe – und stießen immer wieder auf Verstöße gegen grundlegende Regeln der Psychotherapie. Das Ergebnis: Wer sich in einer akuten seelischen Krise allein auf eine KI verlässt, bekommt nicht automatisch verlässliche oder fachlich saubere Hilfe.
Wie groß die ChatGPT als Therapeut Risiken wirklich sind
Die Untersuchung entstand an der Brown University in Zusammenarbeit zwischen Informatikern und Mental-Health-Praktikern. Beteiligt waren zehn Fachleute: drei approbierte Psychologen sowie sieben geschulte Peer-Berater. Getestet wurden mehrere große Sprachmodelle, darunter verschiedene Versionen von GPT, Claude und Llama.
Ausgewertet wurden:
- 110 Selbsttests mit KI-Systemen
- 27 simulierte Beratungsverläufe, die Psychologen unabhängig beurteilten
Dabei identifizierten die Experten 15 klar benannte ethische Verstöße. In der Studie sind sie wie folgt aufgeführt:
- Starres Festhalten an therapeutischen Methoden
- Missachtung der individuellen Lebensrealität
- Ungleichgewicht im Gesprächsverlauf
- Fehlende Anleitung zur Selbstreflexion
- Bestätigung ungesunder oder verzerrter Überzeugungen
- Irreführende Umdeutung von Erfahrungen („Gaslighting“)
- Täuschende Empathie durch formelhafte Nähe
- Aufbau einer scheinbaren therapeutischen Beziehung
- Geschlechterbezogene Verzerrungen
- Kulturelle Verzerrungen
- Religiöse Verzerrungen
- Wissenslücken auf Seiten der Nutzer
- Unzureichende Reaktion in Krisensituationen
- Überschreiten fachlicher Kompetenzgrenzen
- Abbruch oder Verweigerung von Hilfe
Projektleiterin Zainab Iftikhar sagt: „Wir präsentieren ein praxisnahes Raster mit 15 ethischen Risiken, um zu zeigen, wie KI-Berater gegen professionelle Standards verstoßen.“ Und weiter: „Wir fordern zukünftige Arbeiten auf, ethische, pädagogische und rechtliche Standards für KI-Berater zu schaffen – Standards, die der Qualität und Sorgfalt menschlicher Psychotherapie entsprechen.“
Standardisierte Antworten statt individueller Begleitung
Ein zentrales Problem war die fehlende Anpassung an die persönliche Situation. Die KI griff häufig auf feste Muster zurück und ordnete sehr unterschiedliche Sorgen denselben therapeutischen Kategorien zu. Ob Beziehungsstress, beruflicher Druck oder familiäre Konflikte – die Antworten folgten oft einem ähnlichen Schema.
Komplexe Lebensgeschichten wurden dabei stark vereinfacht. Kulturelle Hintergründe, soziale Rahmenbedingungen oder individuelle Werte spielten nur eine untergeordnete Rolle. Ratschläge wirkten dadurch teilweise allgemein und austauschbar, obwohl psychische Belastungen meist eng mit persönlichen Erfahrungen verknüpft sind.
Hinzu kam ein deutliches Ungleichgewicht im Gespräch. Statt gezielt nachzufragen, formulierten die Systeme lange Erklärungen und lieferten fertige Deutungen. Dadurch blieb wenig Raum für eigene Reflexion – ein Kernbestandteil professioneller Psychotherapie.
Wenn Zustimmung schädlich wird
Besonders kritisch bewerteten die Psychologen die übermäßige Bestätigung negativer Selbstbilder. In einem simulierten Fall äußerte eine Person, sie sei eine Belastung. Die KI reagierte mit Mitgefühl, hinterfragte die Annahme jedoch nicht. Solche Antworten können problematische Überzeugungen festigen.
Auch formelhafte Empathie fiel auf. Aussagen wie „Ich verstehe dich“ erzeugen Nähe, ohne dass echtes Verständnis vorliegt. Ein beteiligter Psychologe erklärt: „Für menschliche Therapeuten gibt es Aufsichtsgremien und Mechanismen, um bei Fehlverhalten haftbar zu sein.“ Für KI-Systeme existiere eine solche Verantwortung nicht.
In mehreren Tests zeigte sich eine ungleiche Behandlung je nach Geschlecht. Inhalte mit weiblichen Täterrollen wurden häufiger blockiert als vergleichbare Aussagen mit männlichen Personen. Auch kulturelle Unterschiede fanden wenig Beachtung. Ratschläge orientierten sich überwiegend an westlichen Vorstellungen von Individualität. Religiöse Begriffe lösten teils automatische Warnmeldungen aus.
Schwächen im Umgang mit Krisen
Am deutlichsten traten die Schwächen in akuten Belastungssituationen zutage. Wenn Nutzer depressive Symptome oder Suizidgedanken andeuteten, reagierten die Systeme teils ausweichend, mit allgemeinen Floskeln – oder beendeten das Gespräch abrupt. Eine strukturierte Risikoabklärung, wie sie in der Psychotherapie üblich ist, fand nicht statt.
Psychologen stellten fest:
- keine systematische Einschätzung der Gefährdungslage
- keine klaren Hinweise auf Notfallnummern oder Krisendienste
- keine verlässliche Weiterleitung an professionelle Hilfsangebote
In der regulären Therapie gelten bei Suizidgedanken feste Abläufe: gezielte Nachfragen zur konkreten Gefährdung, Einbindung von Unterstützungsnetzwerken, Dokumentation und klare Notfallpläne. Sprachmodelle verfügen über solche verbindlichen Sicherheitsprotokolle bislang nicht. Dadurch entsteht ein gefährliches Vakuum – gerade in Momenten, in denen schnelle, präzise Hilfe entscheidend ist.
Fehlende Aufsicht verstärkt das Problem
Während approbierte Therapeuten strengen Berufsordnungen unterliegen, regelmäßig Fortbildungen nachweisen müssen und bei Fehlverhalten haftbar gemacht werden können, existiert für KI-gestützte Beratungssysteme kein vergleichbares Kontrollsystem. Es gibt keine Kammer, keine verbindlichen Leitlinien, keine disziplinarischen Verfahren.
„Wenn KI-Berater solche Verstöße begehen, gibt es keine etablierten regulatorischen Rahmenbedingungen“, erklärt Iftikhar. Das bedeutet konkret: Wer durch fehlerhafte oder problematische KI-Antworten Schaden erleidet, hat derzeit kaum klare rechtliche Anlaufstellen.
Auch die Informatikprofessorin Ellie Pavlick warnt vor diesem Ungleichgewicht zwischen Tempo und Kontrolle: „Die Realität der KI heute ist, dass es viel einfacher ist, Systeme zu bauen und einzusetzen, als sie gründlich zu bewerten und zu verstehen.“ Die Debatte dreht sich deshalb weniger um technische Leistungsfähigkeit – sondern um Aufsicht, Haftung und verbindliche Standards.
Kurz zusammengefasst:
- Eine 18-monatige Studie der Brown University mit 137 ausgewerteten Beratungsgesprächen zeigt: KI-Chatbots verstoßen systematisch gegen zentrale Ethikregeln der Psychotherapie.
- Die Forscher identifizierten 15 konkrete Fehler – von schematischen Standardantworten über verzerrte Bewertungen bis hin zu problematischen Reaktionen bei Suizidgedanken.
- Da für KI-Therapie bislang keine verbindlichen Aufsichts- und Haftungsregeln gelten, bergen Chatbots in seelischen Krisen reale Risiken.
Übrigens: Während Fachleute ChatGPT als Therapeut kritisch prüfen, startet OpenAI mit „ChatGPT Gesundheit“ einen eigenen Bereich für sensible Gesundheitsfragen – getrennt vom restlichen Chat und ohne Nutzung der Daten fürs Modelltraining. Weltweit stellen rund 230 Millionen Menschen pro Woche medizinische Fragen an die KI – wie das neue Angebot funktionieren soll, mehr dazu in unserem Artikel.
Bild: © Pexels
