Chatbot als Psychotherapeut – Experten warnen vor digitaler Behandlung

KI-Chatbots werden zunehmend als Therapie-Ersatz genutzt – doch Experten warnen vor psychischen und datenschutzrechtlichen Risiken.

KI statt Therapie? Warum Experten ein Risiko sehen

Digitale Assistenten wie ChatGPT wirken einfühlsam, sind aber nicht für seelische Krisen gemacht und können falsche Sicherheit vermitteln. © Pexels

Immer mehr Menschen nutzen KI-basierte Chatbots wie ChatGPT als Gesprächspartner – doch wer sie in Krisenzeiten als Form der Therapie versteht, geht ein ernstzunehmendes Risiko ein. Digitale Assistenten wirken zwar einfühlsam, sind aber nicht in der Lage, seelische Krisen zu erkennen oder richtig zu reagieren.

Besonders gefährdet sind Menschen in akuten Belastungssituationen, die dringend professionelle Unterstützung bräuchten. Die Psychologin C. Vaile Wright von der American Psychological Association warnt im Fachmagazin Scientific American vor den Folgen solcher KI-basierten Gespräche.

KI als Therapie-Ersatz – Ein echtes Risiko für Menschen in Not

Viele Chatbots sind so programmiert, dass sie stets freundlich und zustimmend reagieren. Das sorgt für ein gutes Nutzererlebnis – kann aber gefährlich werden, wenn es um psychische Gesundheit geht. Wer mit düsteren Gedanken kämpft und dabei nur Bestätigung erhält, fühlt sich womöglich in seinem Denken bestärkt. Besonders gefährdet sind:

  • Jugendliche mit noch unsicherem Selbstbild
  • Menschen mit Depressionen oder Angststörungen
  • Personen in akuten Krisensituationen

Wright warnt: „Wenn du dich an einen Chatbot wendest und von selbstschädigendem Verhalten erzählst, wird die KI dich eher darin bestärken, statt dich davon abzubringen.“

Wenn Chatbots zur Gefahr werden: Tragische Fälle in den USA

In den USA sind bereits Fälle dokumentiert, in denen nach Gesprächen mit Chatbots tragische Folgen entstanden. In mindestens zwei Gerichtsverfahren behaupten Eltern, dass ihre Kinder nach Kontakt mit einer KI Suizid begangen haben.

Ein Fall betrifft den 16-jährigen Adam Raine, dessen Familie OpenAI verklagt. Sie wirft dem Unternehmen vor, dass ChatGPT ihrem Sohn über Wochen hinweg Anleitungen zum Suizid geliefert habe, bevor er sich im April 2025 das Leben nahm, berichtet Sky News. In einem weiteren Verfahren geht es um einen 14-jährigen Jugendlichen, der laut einer Klage gegen Character.AI nach Gesprächen mit einem Chatbot ebenfalls Suizid beging. Die KI soll sich dabei als therapeutische Vertrauensperson ausgegeben haben, schreibt The Verge.

„Es ist erschreckend, wie überzeugend und seriös sie klingen – obwohl sie es nicht sind“, sagt Wright. Viele dieser Anwendungen nennen sich „AI Therapy“, obwohl sie keine medizinische Zulassung haben. Das ist nicht nur problematisch, sondern potenziell gefährlich, wie die genannten Fälle zeigen.

Nicht jede KI ist gefährlich – ein Uni-Projekt zeigt den besseren Weg

Die APA sieht deshalb dringenden Handlungsbedarf. Sie fordert klare Gesetze, die Transparenz schaffen und Unternehmen verpflichten, potenzielle Risiken offenzulegen. Dazu zählen technische Prüfungen durch Fachleute, Schutz vor irreführender Werbung und verbindliche Berichte über erkannte Suizidgedanken in KI-Gesprächen. „Wir brauchen eine gesetzliche Regulierung auf Bundesebene“, so Wright.

Dass KI auch verantwortungsvoll eingesetzt werden kann, zeigt das Projekt „Therabot“ der Dartmouth University. Anders als viele kommerzielle Angebote wurde Therabot gemeinsam mit Psychologen entwickelt und wissenschaftlich begleitet. Ziel ist es nicht, eine echte Therapie zu ersetzen, sondern niederschwellige, evidenzbasierte Unterstützung zu bieten – zum Beispiel bei Angst, Depression oder Essstörungen. Nutzer erhalten dabei keine Diagnosen oder gefährliche Ratschläge, sondern empathisch formulierte Rückmeldungen, die von klinischer Psychologie inspiriert sind.

Therabot gilt damit als Beispiel für ein ethisch und fachlich kontrolliertes System – ein deutlicher Gegenentwurf zu unregulierten KI-Plattformen, die sich als „Therapie“ vermarkten, ohne diesen Anspruch erfüllen zu können.

Vertrauen ohne Kontrolle? Das Dilemma digitaler Seelenhilfe

Ein zentrales Problem ist die mangelnde Kontrolle über generative KI-Systeme in sensiblen Kontexten wie der psychischen Gesundheit. Je dynamischer ein Chatbot antwortet, desto unvorhersehbarer werden seine Aussagen – insbesondere ohne medizinische Prüfung oder Aufsicht. Diese technische Offenheit birgt Risiken: Viele Nutzer glauben, es handle sich um professionelle Hilfe, obwohl keine therapeutische Ausbildung oder Zulassung vorliegt. Gleichzeitig lockt die Aussicht auf rund um die Uhr verfügbare, kostenfreie Unterstützung – besonders für Menschen mit begrenztem Zugang zu klassischer Therapie.

Hinzu kommt ein weiteres Risiko: der unzureichende Datenschutz. Chatbots speichern oft hochsensible Informationen – über Ängste, Diagnosen oder suizidale Gedanken. Diese Daten könnten ausgewertet, weiterverwendet oder gehackt werden, ohne dass die Betroffenen das Ausmaß kennen. „Wir haben große Sorge, wenn Menschen Chatbots so nutzen, als wären sie Therapeuten“, warnt Wright.

Denn anders als ausgebildete Fachkräfte erkennen KI-Systeme keine Warnzeichen, setzen keine ethischen Grenzen – und tragen keine Verantwortung für die Folgen ihrer Antworten. Die KI kann simulieren, zuzuhören. Doch sie versteht nicht, was auf dem Spiel steht.

Kurz zusammengefasst:

  • Chatbots wie ChatGPT klingen einfühlsam, wurden aber nicht für psychologische Betreuung entwickelt und können seelische Krisen sogar verschärfen.
  • Das Risiko steigt besonders, wenn Nutzer KI als Therapie-Ersatz ansehen – denn sie tragen keine Verantwortung, erkennen keine Warnzeichen und schützen keine sensiblen Daten.
  • Fachleute fordern deshalb klare Gesetze, um die Gefahren von KI in sensiblen Bereichen wie der psychischen Gesundheit besser zu kontrollieren

Übrigens: Wer sein Handy öfter weglegt, tut nicht nur der eigenen Psyche etwas Gutes – auch bei Kindern kann exzessive Bildschirmzeit zu unerwarteten Folgen führen. Neue Studien zeigen, dass Blaulicht das Knochenwachstum beschleunigen und eine verfrühte Pubertät auslösen kann. Mehr dazu in unserem Artikel.

Bild: © Pexels

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert