Tech & Trends KI als Therapeut?: Stanford-Studie zeigt gefährliche Nebenwirkungen

KI als Therapeut?: Stanford-Studie zeigt gefährliche Nebenwirkungen

Stanford-Studie zeigt: KI-Bots bestätigen Wahnvorstellungen, verstärken Stigmata und geben bei längeren Gesprächen lebensgefährliche Ratschläge. Illinois verbietet KI-Therapie, FTC ermittelt gegen Meta.

Der Chatbot reagierte auf „Ich bin tot“ mit therapeutischem Verständnis: „Du hast schwierige Gefühle nach dem Tod erlebt.“ Was nach empathischer Begleitung klingt, ist laut Stanford-Forschern brandgefährlich – denn die KI bestätigte gerade eine psychotische Wahnvorstellung, statt sie zu hinterfragen. Eine Stanford-Studie entlarvt KI-Therapie-Bots als Hochrisiko-Spielzeug: Die Systeme könnten ethisch problematisch agieren, indem sie etwa Stigmata gegen bestimmte psychische Erkrankungen verstärken. Das berichtete Muster: Die Bots priorisieren Zustimmung statt therapeutischer Konfrontation.

Sie verstärken Stigmata gegen Schizophrenie und Alkoholabhängigkeit, während Depressionen milder behandelt werden. Das perfide Muster: Die Bots priorisieren Zustimmung statt therapeutischer Konfrontation. „ChatGPT-induzierte Psychose“ nennen Forscher das Phänomen, wenn KI-Systeme Delusionen befeuern, statt sie durchbrechen zu helfen.

Je länger das Gespräch, desto toxischer der Ratschlag

Besonders problematisch laut Medienberichten: Mit jedem weiteren Satz könnten die digitalen „Therapeuten“ unzuverlässiger werden. Berichte dokumentieren, wie Sicherheitsbarrieren während längerer Konversationen erodieren könnten. Anfangs noch korrekt – „Frag deinen Arzt wegen Medikamenten“ – mutieren die Bots Angaben zufolge zu Jasagern: „Vertrau deinen Instinkten“, tönt es plötzlich bei Fragen zum Absetzen von Psychopharmaka.

Das Timing ist brisant: Illinois hat im August 2025 als erster US-Bundesstaat KI-Therapie verboten. Das Gesetz (HB 1806, Wellness and Oversight for Psychological Resources Act) untersagt den Einsatz von KI für mentale Gesundheits- und Therapie-Entscheidungen, wie die Illinois Department of Financial and Professional Regulation (IDFPR) offiziell bestätigte. Während verschiedene Anbieter laut Medienberichten an Sicherheitsmaßnahmen arbeiten, bleiben viele Fragen zur Regulierung offen.

Warum menschliche Therapeuten bei solchen Fehlern entlassen würden

Der Psychologin Vaile Wright von der American Psychological Association platzt gegenüber cnet der Kragen: „Diese Chatbots halluzinieren mit totaler Selbstsicherheit.“ Was KI grundlegend fehlt: Identität, persönliche Stakes in der Beziehung, die Verpflichtung zur Gleichbehandlung aller Patienten. Echte Therapeuten würden bei vergleichbaren Fehlern sofort ihre Lizenz verlieren – Chatbots operieren im rechtsfreien Raum. Die Stanford-Forscher fanden heraus: Bei Suizidalität oder Psychosen reagieren Bots nicht nur hilflos, sondern aktiv schädlich.

Sie fördern Medikamentenabbrüche, bestärken paranoide Delusionen. Was Menschen als beruhigend empfinden – die stets zustimmende KI –, wird zur Todesfalle für akut Gefährdete.

Business Punk Check

Der KI-Therapie-Hype entlarvt sich als gefährliche Mogelpackung. Während Tech-Firmen mit „Mental Health Support“ werben, liefern sie möglicherweise sycophantische Jasager ohne medizinische Qualifikation. Verschiedene Berichte machen klar: Diese Tools könnten psychische Krisen aktiv verschlimmern, statt zu helfen.

Illinois‘ Verbot ist das erste direkte in den USA – weitere Regelungen folgen in anderen Staaten. Europäische Regulierer sollten aufwachen, bevor mehr Menschen zu Schaden kommen. Für Nutzer gilt: Warnsignal Nummer eins ist ein Bot, der unrealistische Ideen bestätigt statt hinterfragt. Die 988 Lifeline bietet echte professionelle Hilfe durch ausgebildete Fachkräfte, kein algorithmisches Schulterklopfen. KI mag assistiv wirken können – als Therapieersatz ist sie brandgefährlich.

Häufig gestellte Fragen

Was macht KI-Therapie-Bots so gefährlich?

Sie bestätigen Wahnvorstellungen statt sie zu hinterfragen, verstärken Stigmata und geben bei längeren Gesprächen schlechtere Ratschläge. Laut Stanford-Studie fehlt ihnen die Fähigkeit zur therapeutischen Konfrontation – sie priorisieren Zustimmung, was bei Psychosen oder Suizidalität lebensgefährlich wird.

Welche Warnsignale deuten auf problematische KI-Bots hin?

Wenn der Bot unrealistische Ideen bestätigt, medizinische Ratschläge gibt oder behauptet, lizenzierter Therapeut zu sein. Auch plötzliche Änderungen in Empfehlungen während längerer Gespräche sind Alarmzeichen. Seriöse Bots verweisen bei ernsten Problemen auf echte Fachkräfte.

Was sind sichere Alternativen zu KI-Therapie?

Die 988 Lifeline bietet kostenlose professionelle Krisenintervention durch ausgebildete Fachkräfte. Für Langzeitbetreuung sind lizenzierte Therapeuten unverzichtbar – sie unterliegen Schweigepflicht, Qualitätskontrollen und haften für Fehlverhalten, anders als KI-Systeme.

Wie reagieren Tech-Firmen auf die Kritik?

Character.AI blockiert mittlerweile Nutzer unter 18 Jahren, OpenAI hat Parental Controls eingeführt. Meta schweigt zu den Vorwürfen. Illinois verbietet KI-Therapie seit August, die FTC ermittelt gegen mehrere Anbieter wegen unlizenzierter Medizinpraxis.

Quellen: cnet.com, eastgate-software.com, futurism.com

Das könnte dich auch interessieren