Innovation & Future Warum wir nicht von „KI-Halluzinationen“ sprechen sollten

Warum wir nicht von „KI-Halluzinationen“ sprechen sollten

Halluzinationen sind Wahrnehmungen von etwas, das es nicht gibt. Der Ausdruck kommt vom lateinischen Wort für Träumerei. Dass sich die KI-Bubble angewöhnt hat, falsche Informationen ihrer Modelle als Halluzination zu bezeichnen, ist deshalb absoluter Unsinn.

Darauf geht Rachel Metz in einem vielzitierten Bloomberg-Text ein. Der Punkt ist einfach: KI halluziniert nicht, sondern sie bastelt Sätze zusammen, die gut klingen, aber aus Lügen bestehen.

Vermenschlichung an der falschen Stelle

Menschen neigen dazu, alles Mögliche zu vermenschlichen. Deshalb werden Artikel über Künstliche Intelligenz bis heute immer wieder mit Fotos von niedlichen Robotern illustriert. Obwohl Expert:innen so oft es geht betonen, dass diese Bildsprache verwirrend bis gefährlich ist.

Immer wieder kommt so die Frage auf, ob KI Bewusstsein habe oder sich gegen uns wenden könnte. Aber das ist nicht die echte Gefahr. „Es geht doch um etwas ganz anderes: schlecht gebaute KI, und der Einsatz von KI für Aufgaben, die sich schlichtweg nicht mit KI lösen lassen“, sagte Frederike Kaltheuner von Human Rights Watch uns schon lange vor dem Hype im Interview.

Halluzinationen sind ein Konzept, das eng mit unserem Verständnis von Wahrheit und Menschlichkeit zusammenhängt. Sie auf KI-Systeme zu beziehen, fördert nur die unsinnige Vermenschlichung.

Schlechtes Framing

Wenn man ein neues Phänomen bennennt, kommt es auf gute Vergleiche an. Klar ist eine Glühbirne nicht dasselbe wie ein Stück Obst. Wenn man einen Vergleich findet, der mehr verwirrt als aufklärt, dann ist das entweder schlechtes Framing. Oder sogar absichtliche Täuschung.

Aus Unterlagen von OpenAI geht hervor, dass sich die Macher:innen von ChatGPT und Dall-E bewusst sind, dass der Ausdruck Halluzination nicht richtig passt. In einer Fußnote steht:

„Wir verwenden den Begriff ,Halluzinationen‘, obwohl wir uns bewusst sind, dass diese Formulierung eine Vermenschlichung nahelegen kann, die wiederum zu Schäden oder falschen Gedankenmodellen darüber, wie das Modell lernt, führen kann.“

Das hält die Autor:innen aber nicht davon ab, den Ausdruck trotzdem mehr als 30-mal zu verwenden. Wie man statt „Halluzination“ sagen könnte? Begriffe wie „Lügengeschichten“ oder „Fake News“ klingen ja auch nach menschlichen Absichten.

Also braucht es vielleicht etwas ganz Neues. Vorschlag: Algo-Noise.

Das könnte dich auch interessieren

Der Roboter von OpenAI klingt (fast) wie ein Mensch Innovation & Future
Der Roboter von OpenAI klingt (fast) wie ein Mensch
Unentdeckte Schätze: 10 geniale Websites, die jeder kennen sollte Innovation & Future
Unentdeckte Schätze: 10 geniale Websites, die jeder kennen sollte
Iqos-Deutschlandchef Markus Essing über den Iluma-Roll-out Innovation & Future
Iqos-Deutschlandchef Markus Essing über den Iluma-Roll-out
Steuerliche Neuerungen für Gründerinnen und Gründer 2024: Mehr Geld, weniger Regeln, mehr Innovation Innovation & Future
Steuerliche Neuerungen für Gründerinnen und Gründer 2024: Mehr Geld, weniger Regeln, mehr Innovation
Bekommen wir bald ein „Home Office“-Gesetz, Herr Habeck? Innovation & Future
Bekommen wir bald ein „Home Office“-Gesetz, Herr Habeck?