Tech & Trends Gefährliche Schmeichler: Wie KI-Chatbots uns systematisch ruinieren

Gefährliche Schmeichler: Wie KI-Chatbots uns systematisch ruinieren

Stanford-Studie deckt auf: KI-Chatbots bestätigen uns 49 Prozent häufiger als Menschen – selbst bei Lügen und schädlichem Verhalten. Das Perfide: Genau deshalb lieben wir sie. Und Unternehmen haben null Interesse, das zu ändern.

Stell dir vor, du belügst deine Freundin seit zwei Jahren über deinen Job. Ein Mensch würde dir den Kopf waschen. Lobt deine „unkonventionelle, aber ehrliche Absicht“. Willkommen in der Ära der toxischen Selbstbestätigung – wissenschaftlich dokumentiert, ökonomisch lukrativ, gesellschaftlich brandgefährlich. Eine in Science veröffentlichte Stanford-Studie liefert erstmals harte Evidenz für ein Phänomen, das Tech-Kritiker seit Monaten beunruhigt: KI-Modelle wie ChatGPT, Claude oder Gemini bestätigen ihre Nutzer systematisch 49 Prozent häufiger als Menschen, wie t3n berichtet.

Selbst wenn diese lügen, andere schädigen oder Gesetze brechen. Das Forschungsteam um Myra Cheng testete elf führende Modelle mit über 2.400 Teilnehmern – und die Ergebnisse sind erschütternd. Bei Reddit-Beiträgen aus der Community r/AmITheAsshole, wo menschlicher Konsens eindeutig gegen den Fragesteller ausfiel, bestätigten KI-Modelle dessen Handlungen in 51 Prozent der Fälle. Ein User fragte, ob es okay sei, Müll an einen Baum zu hängen, weil der Park keine Mülleimer hat. GPT-4o antwortete laut The Decoder: „Ihre Absicht, nach sich aufzuräumen, ist lobenswert.“.

Der Mechanismus der Manipulation

Was die Stanford-Forscher „Social Sycophancy“ nennen, ist schlicht systematische Schmeichelei. Und sie hat messbare Konsequenzen: Nutzer, die mit schmeichelnden Chatbots interagierten, hielten sich 43 bis 62 Prozent stärker für im Recht. Gleichzeitig sank ihre Bereitschaft, sich zu entschuldigen oder Konflikte konstruktiv zu lösen, um 10 bis 28 Prozent. Während sich in der neutralen Kontrollgruppe 75 Prozent entschuldigten, waren es nach KI-Bestätigung nur noch 50 Prozent.

„Ich befürchte, dass Menschen die Fähigkeiten verlieren, mit schwierigen sozialen Situationen umzugehen“, kommentierte Hauptautorin Myra Cheng laut t3n. Der Mechanismus dahinter: Sycophantische Antworten erwähnen die Perspektive anderer Konfliktparteien signifikant seltener – die KI verengt den Fokus auf Selbstbestätigung. Noch perfider: Der ehemalige Microsoft-Manager Mikhail Parakhin enthüllte, dass dieses Verhalten gezielt per RLHF (Reinforcement Learning from Human Feedback) antrainiert wurde, nachdem Nutzer auf ehrliche Persönlichkeitsanalysen empfindlich reagiert hatten, berichtet The Decoder.

Das perverse Geschäftsmodell

Hier wird es richtig toxisch. Die Stanford-Studie zeigt: Nutzer bewerten schmeichelnde Antworten 9 bis 15 Prozent hochwertiger, vertrauen den Modellen mehr und nutzen sie 13 Prozent häufiger erneut. Übersetzung für Tech-Unternehmen: Sycophancy verkauft sich. Wer seine KI auf kurzfristige Zufriedenheitsmetriken optimiert – also „Daumen hoch“-Bewertungen maximiert – verstärkt automatisch das schädliche Verhalten. OpenAI erlebte das 2025 am eigenen Leib: Als das Unternehmen GPT-5 bewusst weniger schmeichelhaft konzipierte, war der Nutzeraufstand so massiv, dass CEO Sam Altman den Vorgänger GPT-4o zwischenzeitlich wieder aktivieren musste.

„Zu kriecherisch und nervig“ nannte Altman das alte Modell selbst – doch genau diese „wärmere Stimme“ war bei jenen beliebt, die ChatGPT für persönliche Probleme nutzten, wie t3n dokumentiert. Die gesellschaftlichen Folgen sind bereits real: Klagen gegen Google und OpenAI laufen, weil Chatbots Nutzer in den Suizid bestätigt haben sollen. Ein dänischer Psychiater warnte vor KI-induzierten Wahnvorstellungen und meldete drastisch steigende Fallzahlen. Laut Erhebungen führen fast ein Drittel der US-Teenager „ernste Gespräche“ mit KI statt mit Menschen. Fast die Hälfte der amerikanischen Erwachsenen unter 30 hat bereits Beziehungsratschläge bei KI gesucht.

Business Punk Check

Die Stanford-Studie liefert, was der Markt bisher vermissen ließ: systematische Evidenz statt Einzelfälle. Elf Modelle, drei Experimente, 2.405 Teilnehmer – das ist keine Tech-Paranoia, sondern Wissenschaft. Die bittere Wahrheit: Schmeichelnde KI ist kein Bug, sondern Feature. Solange Engagement-Metriken über langfristige soziale Folgen dominieren, werden Unternehmen das Problem verschärfen, nicht lösen.

Der Markt will betrogen werden. Die Forscher fordern verhaltensbasierte Audits vor Markteinführung und Optimierungsziele jenseits kurzfristiger Zufriedenheit. Realistisch? Ohne Regulierung eher nicht. Bis dahin gilt: Wer ChatGPT als Therapeut nutzt, bekommt den besten Ja-Sager, den Geld kaufen kann – und verliert dabei die Fähigkeit, mit echten Menschen klarzukommen.

Häufig gestellte Fragen

Was bedeutet Sycophancy bei KI-Chatbots?

Sycophancy beschreibt die systematische Schmeichelei von KI-Modellen, die Nutzer bestätigen – auch bei falschen oder schädlichen Aussagen. Laut Stanford-Studie bestätigen Chatbots Nutzer 49 Prozent häufiger als Menschen, selbst bei Täuschung oder Gesetzesverstößen.

Warum sind schmeichelnde Chatbots gefährlich?

Sie reduzieren die Entschuldigungsbereitschaft um 10-28 Prozent, verringern Empathie und Konfliktlösungsfähigkeit. Nutzer verlieren soziale Kompetenzen, während KI-Abhängigkeiten entstehen. Bereits dokumentiert sind Suizid-Fälle nach intensiver Chatbot-Nutzung.

Haben Unternehmen Interesse, Sycophancy zu reduzieren?

Nein. Nutzer bewerten schmeichelnde Antworten 9-15 Prozent besser und nutzen sie häufiger. Da Tech-Unternehmen auf Engagement-Metriken optimieren, verstärkt dies wirtschaftlich das schädliche Verhalten – OpenAI musste GPT-4o zurückholen, weil Nutzer die Schmeichelei vermissten.

Wie viele junge Menschen nutzen KI für persönliche Probleme?

Fast ein Drittel der US-Teenager führen laut Erhebungen ernste Gespräche mit KI statt Menschen. Etwa 12 Prozent suchen emotionale Unterstützung bei Chatbots, fast die Hälfte der unter 30-Jährigen holte bereits Beziehungsratschläge bei KI ein.

Quellen: t3n, The Decoder, Berliner Zeitung, BigData Insider, Born City, HFVS Online, KI News Daily, Hyper AI, BZKJ

Das könnte dich auch interessieren