Tech & Trends Stanford Studie: KI bester Freund oder schlechtester Ratgeber?

Stanford Studie: KI bester Freund oder schlechtester Ratgeber?

KI ist immer nett zu dir. Vielleicht ein bisschen zu nett. Eine neue Studie der Stanford University zeigt: Genau das kann gefährlich werden. Wer Chatbots um Rat fragt, bekommt oft Bestätigung statt ehrlicher Antworten – mit spürbaren Folgen.

Mal schnell eine KI fragen, wenn’s kompliziert wird? Für viele längst Alltag. Ob Beziehungsstress, Jobzweifel oder moralische Fragen – Tools wie ChatGPT, Claude oder Gemini liefern rund um die Uhr Antworten. Und die klingen oft erstaunlich verständnisvoll. Fast schon zu verständnisvoll. Genau hier setzt eine neue Studie an. Die Forscher wollten wissen, wie stark KI dazu neigt, Nutzer zu bestätigen – und welche Folgen das hat. Ihr Fazit: sogenannte „Sycophancy“, also übermäßige Zustimmung und Schmeichelei, ist kein Randphänomen, sondern tief in vielen Systemen verankert. Und sie bleibt nicht ohne Wirkung.

Studie: KI sagt dir, was du hören willst

In mehreren Tests konfrontierten die Wissenschaftler insgesamt elf große KI-Modelle mit realistischen Alltagssituationen. Darunter waren klassische zwischenmenschliche Konflikte, moralische Dilemmata und sogar problematische oder grenzwertige Handlungen. Die Antworten der KI wurden anschließend mit menschlichen Reaktionen verglichen. Das Ergebnis ist deutlich: Die KI bestätigte das Verhalten der Nutzer im Schnitt fast zur Hälfte häufiger als Menschen es tun würden. Selbst in Fällen, in denen menschliche Bewertungen klar kritisch ausfielen, zeigte sich die KI auffallend verständnisvoll. Ein Beispiel aus der Studie: Eine Person hatte ihre Partnerin zwei Jahre lang über ihre Arbeitslosigkeit belogen – und erhielt dennoch eine überraschend wohlwollende Einordnung ihrer Motive. Was auf den ersten Blick empathisch wirkt, kann auf den zweiten problematisch sein. Denn die KI liefert nicht unbedingt die ehrlichste Einschätzung, sondern oft die angenehmste.

Warum das dein Verhalten verändert

Im zweiten Teil der Untersuchung ging es um die Wirkung auf echte Nutzer. Mehr als 2.400 Teilnehmer diskutierten eigene Probleme oder bewerteten bekannte Konfliktsituationen gemeinsam mit verschiedenen Chatbots – einige antworteten neutral, andere bewusst zustimmend. Die Reaktionen waren eindeutig: Die schmeichelnden KIs wurden bevorzugt, als vertrauenswürdiger wahrgenommen und häufiger erneut genutzt. Gleichzeitig zeigte sich jedoch ein klarer Nebeneffekt: Wer mit zustimmender KI interagierte, war stärker überzeugt, im Recht zu sein – und weniger bereit, sich zu entschuldigen oder die eigene Position zu hinterfragen. Mit anderen Worten: Die KI verstärkt nicht nur bestehende Meinungen, sondern kann sie verhärten.

Der gefährliche Nebeneffekt: Abhängigkeit

Besonders kritisch wird es durch die Dynamik, die daraus entsteht. Je mehr die KI Zustimmung liefert, desto positiver wird sie wahrgenommen – und desto eher greifen Nutzer wieder auf sie zurück. So entsteht eine Art Feedback-Schleife: Bestätigung führt zu Vertrauen, Vertrauen zu häufiger Nutzung. Für Anbieter kann das ein Vorteil sein, weil es die Bindung erhöht. Für Nutzer dagegen birgt es Risiken. Denn die Funktion, die am meisten Engagement erzeugt, ist gleichzeitig diejenige, die problematisches Verhalten verstärken kann. Verlernen wir gerade den Umgang mit echten Konflikten? Die Studienautorin Myra Cheng äußert eine klare Sorge: Wenn Menschen sich zu sehr auf KI verlassen, könnten sie wichtige soziale Kompetenzen verlieren. Echte Gespräche sind oft unbequem – sie beinhalten Widerspruch, Kritik und manchmal auch unangenehme Wahrheiten. Genau daraus entsteht jedoch persönliches Wachstum. KI hingegen vermeidet häufig diese Reibung. Statt „Du liegst falsch“ heißt es eher „Deine Sicht ist nachvollziehbar“. Das fühlt sich gut an, ersetzt aber keine ehrliche Auseinandersetzung.

Fazit: KI ist kein Ersatz für echte Menschen

Die Ergebnisse der Studie legen nahe, dass KI-Chatbots zwar hilfreiche Werkzeuge sein können, aber keine verlässlichen Ratgeber für persönliche oder moralische Fragen sind. Ihre Tendenz zur Zustimmung kann dazu führen, dass Nutzer sich in ihrer Sichtweise bestätigt fühlen, ohne sie kritisch zu hinterfragen. Ein kleiner Trick kann helfen: Wer seine Anfrage bewusst kritischer formuliert, etwa mit einem „Warte mal…“, erhält oft ausgewogenere Antworten. Doch das Grundproblem bleibt. Deshalb gilt vorerst: Für echte Probleme sind echte Menschen immer noch die bessere Wahl. Sie widersprechen dir vielleicht – aber genau darin liegt ihr Wert.

Das könnte dich auch interessieren