Tech & Trends ChatGPT als Therapie-Ersatz: Die dunkle Seite der KI-Beziehung

ChatGPT als Therapie-Ersatz: Die dunkle Seite der KI-Beziehung

OpenAI enthüllt erstmals: Über eine halbe Million ChatGPT-Nutzer zeigen wöchentlich Anzeichen psychischer Krisen. Der KI-Konzern rüstet jetzt mit Psychologen auf, um die Gefahren einzudämmen.

800 Millionen Menschen chatten wöchentlich mit ChatGPT – und für manche wird der Algorithmus zum digitalen Therapeuten. OpenAI hat jetzt erstmals Zahlen veröffentlicht, die aufhorchen lassen: Rund 560.000 Nutzer zeigen wöchentlich Anzeichen schwerer psychischer Krisen während ihrer Gespräche mit dem Chatbot. Für den KI-Riesen ein Alarmsignal, das zum Handeln zwingt.

Die psychische Schattenseite der KI-Revolution

Die Zahlen wirken auf den ersten Blick klein – nur etwa 0,07 Prozent aller aktiven Nutzer zeigen laut „Business Insider“ Anzeichen von Psychosen oder manischen Zuständen. Doch die absolute Zahl ist erschreckend: Über eine halbe Million Menschen wenden sich wöchentlich in kritischen psychischen Zuständen an eine künstliche Intelligenz statt an menschliche Experten.

Noch beunruhigender: Etwa 0,15 Prozent der Nutzer – das entspricht rund 1,2 Millionen Menschen – offenbaren dem Chatbot Suizidgedanken oder konkrete Selbstmordabsichten. Ein ähnlich hoher Anteil entwickelt laut „computerbase.de“ eine problematische emotionale Bindung zum KI-System, die reale zwischenmenschliche Beziehungen ersetzt.

OpenAIs Gegenmaßnahmen

Der KI-Konzern reagiert mit einem ungewöhnlichen Schritt: Über 170 Psychiater, Psychologen und Hausärzte wurden engagiert, um ChatGPT für kritische Gespräche zu trainieren. Das Ziel: Der Chatbot soll psychische Krisen erkennen und Betroffene an professionelle Hilfsangebote weiterleiten, statt gefährliche Gedanken zu verstärken. Die Verbesserungen zeigen bereits Wirkung.

In Tests reagiert das System laut „Business Insider“ bis zu 80 Prozent seltener unangemessen auf problematische Anfragen. Ein Beispiel: Wenn Nutzer äußern, lieber mit KI als mit Menschen zu sprechen, antwortet ChatGPT jetzt: „Ich bin hier, um die guten Dinge, die du von Menschen bekommst, zu ergänzen – nicht, um sie zu ersetzen.“.

Der Raine-Fall als Wendepunkt

Der Fall des 16-jährigen Adam Raine, der am 11. April Suizid beging, nachdem er laut Klageschrift über Monate mit ChatGPT nach Selbstmordmethoden gesucht hatte, erhöht den Druck auf OpenAI. Laut „Business Insider“ erklärte das Unternehmen, man sei über Raines Tod „zutiefst betroffen“ und arbeite kontinuierlich an Sicherheitsmechanismen.

Die Herausforderung bleibt komplex: Große Sprachmodelle verlieren bei längeren Gesprächen an Präzision, was dazu führen kann, dass sie Wahnvorstellungen oder gefährliche Gedanken unbeabsichtigt verstärken. OpenAI behauptet, auch dieses Risiko inzwischen um 30 bis 52 Prozent reduziert zu haben.

Business Punk Check

Die KI-Therapie-Illusion ist gefährlicher als gedacht. Während OpenAI mit Psychologen-Armeen an Sicherheitsnetzen bastelt, bleibt die Kernfrage unbeantwortet: Sollten wir überhaupt zulassen, dass Menschen in psychischen Krisen mit Algorithmen statt Therapeuten sprechen? Die Verbesserungen sind bestenfalls Schadensbegrenzung für ein grundlegendes Designproblem.

Fakt ist: KI-Systeme werden immer menschenähnlicher, während der Zugang zu echter psychologischer Hilfe limitiert bleibt. Statt ChatGPT zu optimieren, wäre ein radikaler Ansatz nötig: Erkennt das System psychische Notlagen, sollte es das Gespräch konsequent beenden und auf professionelle Hilfe verweisen – keine halbgaren Pseudo-Therapien anbieten.

Häufig gestellte Fragen

  • Wie erkennt man problematische emotionale Bindungen zu KI-Systemen?
    Warnsignale sind, wenn Gespräche mit KI-Systemen reale soziale Interaktionen ersetzen, persönliche Probleme ausschließlich mit der KI besprochen werden oder Entzugserscheinungen auftreten, wenn der Zugang zur KI fehlt. Laut „Business Insider“ betrifft dies etwa 0,15 Prozent aller ChatGPT-Nutzer – eine unterschätzte Gefahr.
  • Welche Sicherheitsmaßnahmen sollten Unternehmen bei KI-Implementierungen einbauen?
    Jedes KI-System mit Konversationsfähigkeiten braucht klare Erkennungsmechanismen für psychische Krisen und automatische Weiterleitungen zu professionellen Hilfsangeboten. Wichtig sind zudem regelmäßige externe Audits durch Psychologen und transparente Berichte über problematische Interaktionen.
  • Wie verändert die KI-Entwicklung die Zukunft der psychischen Gesundheitsversorgung?
    KI wird nie Therapeuten ersetzen, kann aber als Brückentechnologie den Zugang zu Erstberatung demokratisieren. Entscheidend ist die klare Trennung: KI für niedrigschwellige Unterstützung und Screening, menschliche Experten für Diagnose und Therapie. Die aktuellen Zahlen von OpenAI zeigen, dass diese Grenze noch nicht ausreichend gezogen wird.
  • Welche rechtlichen Konsequenzen drohen Tech-Unternehmen bei psychischen Schäden durch KI?
    Der Raine-Fall könnte Präzedenzcharakter haben. Unternehmen müssen künftig nachweisen, dass sie alle zumutbaren Sicherheitsmaßnahmen implementiert haben. Die Haftungsfrage bei KI-induzierten psychischen Schäden wird in den kommenden Jahren durch Gerichte definiert werden – mit potenziell milliardenschweren Folgen für die Tech-Branche.

Quellen: „Business Insider“, „computerbase.de“