Innovation & Future Warum wir nicht von „KI-Halluzinationen“ sprechen sollten

Warum wir nicht von „KI-Halluzinationen“ sprechen sollten

Halluzinationen sind Wahrnehmungen von etwas, das es nicht gibt. Der Ausdruck kommt vom lateinischen Wort für Träumerei. Dass sich die KI-Bubble angewöhnt hat, falsche Informationen ihrer Modelle als Halluzination zu bezeichnen, ist deshalb absoluter Unsinn.

Darauf geht Rachel Metz in einem vielzitierten Bloomberg-Text ein. Der Punkt ist einfach: KI halluziniert nicht, sondern sie bastelt Sätze zusammen, die gut klingen, aber aus Lügen bestehen.

Vermenschlichung an der falschen Stelle

Menschen neigen dazu, alles Mögliche zu vermenschlichen. Deshalb werden Artikel über Künstliche Intelligenz bis heute immer wieder mit Fotos von niedlichen Robotern illustriert. Obwohl Expert:innen so oft es geht betonen, dass diese Bildsprache verwirrend bis gefährlich ist.

Immer wieder kommt so die Frage auf, ob KI Bewusstsein habe oder sich gegen uns wenden könnte. Aber das ist nicht die echte Gefahr. „Es geht doch um etwas ganz anderes: schlecht gebaute KI, und der Einsatz von KI für Aufgaben, die sich schlichtweg nicht mit KI lösen lassen“, sagte Frederike Kaltheuner von Human Rights Watch uns schon lange vor dem Hype im Interview.

Halluzinationen sind ein Konzept, das eng mit unserem Verständnis von Wahrheit und Menschlichkeit zusammenhängt. Sie auf KI-Systeme zu beziehen, fördert nur die unsinnige Vermenschlichung.

Schlechtes Framing

Wenn man ein neues Phänomen bennennt, kommt es auf gute Vergleiche an. Klar ist eine Glühbirne nicht dasselbe wie ein Stück Obst. Wenn man einen Vergleich findet, der mehr verwirrt als aufklärt, dann ist das entweder schlechtes Framing. Oder sogar absichtliche Täuschung.

Aus Unterlagen von OpenAI geht hervor, dass sich die Macher:innen von ChatGPT und Dall-E bewusst sind, dass der Ausdruck Halluzination nicht richtig passt. In einer Fußnote steht:

„Wir verwenden den Begriff ,Halluzinationen‘, obwohl wir uns bewusst sind, dass diese Formulierung eine Vermenschlichung nahelegen kann, die wiederum zu Schäden oder falschen Gedankenmodellen darüber, wie das Modell lernt, führen kann.“

Das hält die Autor:innen aber nicht davon ab, den Ausdruck trotzdem mehr als 30-mal zu verwenden. Wie man statt „Halluzination“ sagen könnte? Begriffe wie „Lügengeschichten“ oder „Fake News“ klingen ja auch nach menschlichen Absichten.

Also braucht es vielleicht etwas ganz Neues. Vorschlag: Algo-Noise.

Das könnte dich auch interessieren

“We will continue our work” Innovation & Future
“We will continue our work”
Darmstadt im Startup-Fieber: Die unterschätzte Perle der Gründungswelt Innovation & Future
Darmstadt im Startup-Fieber: Die unterschätzte Perle der Gründungswelt
„Ich bin in gutem Glauben der Ansicht, dass meine Beschuldigungen korrekt sind“ Innovation & Future
„Ich bin in gutem Glauben der Ansicht, dass meine Beschuldigungen korrekt sind“
Sind wir schon drin?
Weshalb wir der Cloud nicht vertrauen müssen, damit Deutschland endlich digitaler wird
 Innovation & Future
Sind wir schon drin?
Weshalb wir der Cloud nicht vertrauen müssen, damit Deutschland endlich digitaler wird

Google zeigt Denkprozess von Leonardo da Vinci in Online-Ausstellung Innovation & Future
Google zeigt Denkprozess von Leonardo da Vinci in Online-Ausstellung