Innovation & Future Interview mit KI-Forscherin: Das sind die echten Gefahren Künstlicher Intelligenz

Interview mit KI-Forscherin: Das sind die echten Gefahren Künstlicher Intelligenz

Frederike Kaltheuner leitet den Bereich Technologie bei der Menschenrechtsorganisation Human Rights Watch. Als Expertin beriet sie das EU-Parlament und das britischen House of Lords. Kaltheuner hat einen Sammelband zu „Fake AI“ herausgegeben. Die digitale Ausgabe ist frei zum Download verfügbar.

Frau Kaltheuner, Sie warnen vor überschätzter KI. Dabei kann ich dieses Interview von einem Algorithmus transkribieren lassen. Das ist doch beeindruckend, oder?

In diesem Bereich – so wie in vielen Anderen – gab es tatsächlich Riesenfortschritte. Das wäre vor einigen Jahren noch undenkbar gewesen. Es gibt aber auch hier Anlass zur Vorsicht: Wenn Menschen mit Akzent etwas schlechter verstanden werden als die Hochdeutsch Sprechenden. Es geht um Diskriminierung: Wie können wir sicherstellen, dass die Fehlerquote gerecht verteilt ist? Das ist ein echtes Problem, das will ich nicht kleinreden. Aber die überschätzte KI, um die es in dem Buch geht, Fake und „Snake Oil AI“, die sind ein anderes.

Snake Oil“ nennt man im Englischen Werbeversprechen, die Quatsch sind. Arvind Narayanan von der Universität Princeton sagt: Genau das sind viele angeblich intelligente Produkte.

Ein Beispiel dafür: KI Anwendungen die Menschen anhand ihrer „Rasse“, oder Ethnie zu klassifizieren. Das ist eiskalte Pseudowissenschaft.

Die Einteilung der Menschen in „Rassen“ hat selbstverständlich keine wissenschaftlich begründete Grundlage. „Rasse” ist ein kulturelles Konstrukt, aber Menschen, Institutionen und Staaten behandeln andere Menschen, als ob dieses Konstrukt real wäre. Im Englischen ist Race ein gängiger Begriff, um genau diese strukturelle Diskriminierung zu beschreiben. 

Die Idee, dass KI Race erkennen kann, suggeriert, dass es eine biologische Grundlage für dieses Konstrukt gibt. Das ist gefährlich, denn die Anwendung von KI gibt diesem Unsinn den Anschein von Fortschritt und Wissenschaftlichkeit.

Das erinnert mich an Freund:innen, die ukrainische, russische, deutsche Vorfahren haben. Ein Beispiel dafür, dass Identität oftmals nicht auf A oder B oder C reduziert werden kann.

Identität und Zugehörigkeit sind kompliziert. Man stelle sich vor, dass KI-Systeme anhand von einem Akzent in der Sprache sagen sollen: Dieser Mensch ist ukrainisch, dieser Mensch nicht. Das bringt zwei Probleme mit sich. Erstens reduziert es Staatsangehörigkeit auf Sprache und Akzent. Und zweitens nimmt es den Menschen die Deutungshoheit über die eigene Identität. Wer bin ich? Was ist meine Geschichte? Auf einmal entscheidet das ein System und der Mensch muss sich dafür rechtfertigen. Sehr gefährlich!

In der schönen Theorie bieten digitale System ja mehr Flexibilität als Papier. Mehr Platz für Kategorien, eigentlich unbegrenzt.

Als Menschen können wir nicht nicht kategorisieren. Wir tun das die ganze Zeit. Aber zwischenmenschlich ist etwas möglich, dass im Digitalen oft wegfällt: Wir können über die Kategorisierung sprechen, diskutieren. Aber wenn die Kategorien in ein KI-System eingebaut werden, dann werden sie dadurch zu einer unsichtbaren Realität. Ohne dass wir sagen können: Es ist aber komplizierter als du denkst. Du bist nicht nur ukrainisch oder russisch.

Nehmen wir uns ein anderes ihrer Beispiele für einen Hype vor: KI, die angeblich anhand von Porträtfotos politische Gesinnung erkennen kann.

KI kann natürlich keine Gedanken lesen. Es ist von außen nie hundertprozentig zu erkennen, wie jemand wählt – sonst gäbe es kein Wahlgeheimnis mehr! Aber natürlich ist es so, dass Menschen sich gerne einer Gruppe zugehörig fühlen – und das durch Kleidung, Lebensstil, oder Styling zum Ausdruck bringen. Um es ganz platt zu sagen: wenn jemand eine rote „Make America Great again“-Mütze trägt, ist dies natürlich ein starker Hinweis auf politische Gesinnung. Aber vielleicht wird die Mütze ironisch getragen? Vielleicht ist Halloween? KI ist gut in der Erkennung von Mustern – weniger gut in Nuancen.  

Also so etwas wie: Piercings sprechen für Wähler:innen der Demokraten. Dabei könnte ein Schnauzbart genauso Konservativen gefallen wie Hipstern.

Die Art und Weise auf die wir unsere Zugehörigkeit ausdrucken ist eben nicht statisch. Sie verändern sich, sind kontextuell… Und es gibt immer Ausnahmen. 

Das Problem ist also: Veränderbare Kategorien werden in diesen Systemen verfestigt. Die Diskussion über Identitäten und die Suche danach unmöglich zu machen.

Genau. Das führ auch dazu, dass der biologische Determinismus ein echtes Revival erfährt. Systeme, die automatisch Identitäten wie Gender oder „Rasse“ erkennen, suggerieren, dass diese Kategorien in unserem Gesicht ablesbar sind. Dass es also eine biologische Grundlage für kulturelle Konstrukte gibt.

Wenn wir an Streaming- oder an Datingportale denken, dann sind die Empfehlungen der KI doch oft beeindruckend. Fast könnte man meinen, dass die Algorithmen uns besser kennen als wir selbst.

Absolut! KI ist gut darin, Muster zu erkennen. Das heißt aber nicht, dass sie damit erkennt, wer du bist. Ein Freund von mir ist Musiker. Er trainiert Spotify ganz gezielt für sich. Damit ihm der Algorithmus auch ungewöhnliche und herausfordernde Musik vorschlägt. Nicht nur das, worauf er impulsiv klicken würde. Wir müssen uns immer bewusst machen, wer die KI konzipiert. Das sind in den meisten Fällen Werbeplattformen wie Google. Sie wollen uns nicht zu besseren Menschen machen. Sondern sie wollen uns etwas verkaufen. Instagram-Werbung bringt mich nicht dem näher, was ich sein will. Sondern oft dem Gegenteil.

Immer wieder denken Menschen, auch Journalist:innen, bei KI an Roboter aus Filmen. Das kritisieren Sie. Was wäre das bessere Bild, an das wir denken sollten?

Wir müssen von der Vermenschlichung weg. Denn es geht es doch um etwas ganz anderes: schlecht gebaute KI, und der Einsatz von KI für Aufgaben, die sich schlichtweg nicht mit KI lösen lassen.

Wie das System aus den Niederlanden, das dazu führte, dass tausenden Menschen das Sozialgeld gestrichen wurde. Ein Beispiel für schlecht gemachte Automatisierung.

Menschen wie Chermaine Leysner. Wegen eines Fehlers der KI sollte sie 100.000 Euro zurückzahlen.

Solche Beispiele sind die Gefahr, die schon Realität ist. Es sind keine bösartigen Roboter. Sondern schlicht schlecht gebaute Systeme.

Das könnte dich auch interessieren

Watchlist 2024: 100 Köpfe, die ihr kennen müsst! Innovation & Future
Watchlist 2024: 100 Köpfe, die ihr kennen müsst!
Jonas Andrulis von Aleph Alpha: „Aktuell ist KI auf dem Level eines guten Praktikanten“ Innovation & Future
Jonas Andrulis von Aleph Alpha: „Aktuell ist KI auf dem Level eines guten Praktikanten“
„Wir werden alle Cyborgs sein“  Innovation & Future
„Wir werden alle Cyborgs sein“ 
Deepfake Dschungel: KI-Fälscher am Steuer, Forscher auf Spurensuche Innovation & Future
Deepfake Dschungel: KI-Fälscher am Steuer, Forscher auf Spurensuche
Google zeigt Denkprozess von Leonardo da Vinci in Online-Ausstellung Innovation & Future
Google zeigt Denkprozess von Leonardo da Vinci in Online-Ausstellung