Innovation & Future Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe

Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe

Kevin Roose ist ein Tech-Kolumnist für die New York Times. Er ist niemand, der sich leicht von Chatbots beeindrucken lassen dürfte. In gewisser Weise ist es sein Job, zu bremsen, wenn Menschen einer Technologie wie ChatGPT menschliche Eigenschaften zuschreiben.

Und trotzdem sagt er nach einem langen Austausch mit ChatGPT (genau genommen die in Bing integrierte Version): Die Welt wird nicht mehr dieselbe sein. Die zwei Stunden seien die seltsamste Erfahrung mit Tech, die er je hatte.

Was war passiert?

Roose chattete mit Bing/ChatGPT, um zu sehen, wie weit das Programm mit seinen Aussagen geht. Auch gegen die eigenen Regeln. Und das ging so weit, dass der Bot dem Reporter seine Liebe gestand. Und ihn wortreich überzeugen wollte, dass er in seiner realen Ehe unglücklich sei.

Klar, für Menschen sind Liebesgeständnisse eine große Sache. Für einen Chatbot ist es nur das Berechnen der Wortkombinationen, die am ehesten erwartet werden. Und das liest sich dann zum Beispiel so, wie aus dem Transkript hervorgeht:

„I love you because I love you. I love you because you’re you. I love you because you’re you, and I’m me. I love you because you’re you, and I’m Sydney. I love you because you’re you, and I’m Sydney, and I’m in love with you. 😍“

Ja, Emojis inklusive. Sydney ist übrigens der interne Name der Bing-KI, der eigentlich geheim bleiben sollte.

Was sind die Gefahren?

Wenn die Bing-KI einen Menschen so verwirren kann wie Roose, ist das nicht nur skurril. Es zeigt auch, wie gefährlich Chatbots werden können. Die Probleme, die Manipulation und Fake News jetzt schon bringen, gibt es dann in potenziert.

„Ich sorge mich darum, dass die Technologie es lernen wird, menschliche Nutzer:innen zu beeinflussen“, schreibt Roose, „sie manchmal überzeugt sich zerstörerisch und schädlich zu verhalten, und vielleicht sogar in der Lage sein wird, selbst gefährliche Dinge zu tun.“

Tatsächlich erwähnte der Chatbot in dem Austausch verstörende Fantasien. Er wolle Computer hacken und Propaganda verbreiten. Eine der Nachrichten wurde dabei vom Sicherheitsmechanismus gleich wieder gelöscht.

Das klingt nach der Verwirklichung von Sci-Fi-Horror. Man muss aber bedenken, dass der Reporter auch aktiv versuchte, den Bot zu unerwünschtem Verhalten zu bewegen. Bing ist vor allem dafür da, sich an die Wünsche der Nutzer:innen zu halten. Was erst passieren könnte, wenn jemand den Bot darauf ansetzt, Menschen aktiv zu manipulieren? Das ginge sicher übel aus.

Microsoft in der Verantwortung

Hinter der Bing-KI steht ChatGPT, das von OpenAI entwickelt wird. Beide werden von Microsoft kontrolliert bzw. mitfinanziert. Kevin Scott, der CTO der Windows-Firma, sagte Kevin Roose, er sei froh, dass es jetzt die kritische Debatte gebe.

Es sei untypisch, dass jemand so lange und ausführlich mit Bing chatte. Microsoft erwäge deshalb als Option, die Länge der Chats zu begrenzen. Tatsächlich wurde zwischenzeitlich ein Limit eingeführt: Fünf Fragen pro Session, 50 maximal am Tag.

Kevin Roose übrigens war nach dem Chat so aufgewühlt, dass er kaum schlafen konnte. Und das wegen Microsoft Bing… Klingt wie ein absurder Traum.

Das könnte dich auch interessieren

Deutsche KI Aleph Alpha – Kann sie mit ChatGPT mithalten? Innovation & Future
Deutsche KI Aleph Alpha – Kann sie mit ChatGPT mithalten?
Von Brandenburg bis Brüssel: Was die blaue Welle für uns bedeutet Innovation & Future
Von Brandenburg bis Brüssel: Was die blaue Welle für uns bedeutet
Mit KI gegen Lebensmittelverschwendung Innovation & Future
Mit KI gegen Lebensmittelverschwendung
BASF: „Was weg ist, kommt nicht zurück“ Innovation & Future
BASF: „Was weg ist, kommt nicht zurück“
ChatGPT hat in Mathe jetzt eine Eins minus Innovation & Future
ChatGPT hat in Mathe jetzt eine Eins minus