Innovation & Future Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe

Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe

Kevin Roose ist ein Tech-Kolumnist für die New York Times. Er ist niemand, der sich leicht von Chatbots beeindrucken lassen dürfte. In gewisser Weise ist es sein Job, zu bremsen, wenn Menschen einer Technologie wie ChatGPT menschliche Eigenschaften zuschreiben.

Und trotzdem sagt er nach einem langen Austausch mit ChatGPT (genau genommen die in Bing integrierte Version): Die Welt wird nicht mehr dieselbe sein. Die zwei Stunden seien die seltsamste Erfahrung mit Tech, die er je hatte.

Was war passiert?

Roose chattete mit Bing/ChatGPT, um zu sehen, wie weit das Programm mit seinen Aussagen geht. Auch gegen die eigenen Regeln. Und das ging so weit, dass der Bot dem Reporter seine Liebe gestand. Und ihn wortreich überzeugen wollte, dass er in seiner realen Ehe unglücklich sei.

Klar, für Menschen sind Liebesgeständnisse eine große Sache. Für einen Chatbot ist es nur das Berechnen der Wortkombinationen, die am ehesten erwartet werden. Und das liest sich dann zum Beispiel so, wie aus dem Transkript hervorgeht:

„I love you because I love you. I love you because you’re you. I love you because you’re you, and I’m me. I love you because you’re you, and I’m Sydney. I love you because you’re you, and I’m Sydney, and I’m in love with you. 😍“

Ja, Emojis inklusive. Sydney ist übrigens der interne Name der Bing-KI, der eigentlich geheim bleiben sollte.

Was sind die Gefahren?

Wenn die Bing-KI einen Menschen so verwirren kann wie Roose, ist das nicht nur skurril. Es zeigt auch, wie gefährlich Chatbots werden können. Die Probleme, die Manipulation und Fake News jetzt schon bringen, gibt es dann in potenziert.

„Ich sorge mich darum, dass die Technologie es lernen wird, menschliche Nutzer:innen zu beeinflussen“, schreibt Roose, „sie manchmal überzeugt sich zerstörerisch und schädlich zu verhalten, und vielleicht sogar in der Lage sein wird, selbst gefährliche Dinge zu tun.“

Tatsächlich erwähnte der Chatbot in dem Austausch verstörende Fantasien. Er wolle Computer hacken und Propaganda verbreiten. Eine der Nachrichten wurde dabei vom Sicherheitsmechanismus gleich wieder gelöscht.

Das klingt nach der Verwirklichung von Sci-Fi-Horror. Man muss aber bedenken, dass der Reporter auch aktiv versuchte, den Bot zu unerwünschtem Verhalten zu bewegen. Bing ist vor allem dafür da, sich an die Wünsche der Nutzer:innen zu halten. Was erst passieren könnte, wenn jemand den Bot darauf ansetzt, Menschen aktiv zu manipulieren? Das ginge sicher übel aus.

Microsoft in der Verantwortung

Hinter der Bing-KI steht ChatGPT, das von OpenAI entwickelt wird. Beide werden von Microsoft kontrolliert bzw. mitfinanziert. Kevin Scott, der CTO der Windows-Firma, sagte Kevin Roose, er sei froh, dass es jetzt die kritische Debatte gebe.

Es sei untypisch, dass jemand so lange und ausführlich mit Bing chatte. Microsoft erwäge deshalb als Option, die Länge der Chats zu begrenzen. Tatsächlich wurde zwischenzeitlich ein Limit eingeführt: Fünf Fragen pro Session, 50 maximal am Tag.

Kevin Roose übrigens war nach dem Chat so aufgewühlt, dass er kaum schlafen konnte. Und das wegen Microsoft Bing… Klingt wie ein absurder Traum.

Das könnte dich auch interessieren

Künstliche Intelligenz: Elon Musk will mit KI-Firma xAI Fragen der Menschheit klären Innovation & Future
Künstliche Intelligenz: Elon Musk will mit KI-Firma xAI Fragen der Menschheit klären
Die Vier-Tage-Woche: Welche Modelle gibt es und was denken Angestellte darüber? Innovation & Future
Die Vier-Tage-Woche: Welche Modelle gibt es und was denken Angestellte darüber?
KI und die Zukunft der Arbeit: Welche Jobs sind bedroht? Innovation & Future
KI und die Zukunft der Arbeit: Welche Jobs sind bedroht?
„Ich bin in gutem Glauben der Ansicht, dass meine Beschuldigungen korrekt sind“ Innovation & Future
„Ich bin in gutem Glauben der Ansicht, dass meine Beschuldigungen korrekt sind“
Auweia: Temu weckt Wünsche, die es ohne Temu nicht gäbe Innovation & Future
Auweia: Temu weckt Wünsche, die es ohne Temu nicht gäbe