Innovation & Future Deepfake Dschungel: KI-Fälscher am Steuer, Forscher auf Spurensuche

Deepfake Dschungel: KI-Fälscher am Steuer, Forscher auf Spurensuche

Wie lassen sich KI erzeugte Bilder und Videos von denen unterscheiden, die von Menschen gemacht sind und versuchen, eine Realität abzubilden? Forscher tüfteln an Sicherheitstechnologien. Bislang fehlt ihnen die zündende Idee. 

Rishi Sunak ist der britische Premierminister. Wenn man einigen Werbeanzeigen auf Facebook trauen kann (was nicht der Fall ist), scheint er auch für „Schnell-reich-werden“-Systeme zu werben. In einer dieser Anzeigen wirbt Sunak für eine App, die angeblich von Elon Musk, einem Geschäftsmann, entwickelt wurde und mit der die Zuschauer regelmäßig „sparen“ können.

Das Video ist eine Fälschung. Es wurde mit Hilfe von künstlicher Intelligenz erstellt und ist nur eine von 143 Werbungen dieser Art, die von der britischen Firma Fenimore Harper Communications aufgelistet wurden und im Dezember und Januar liefen. Nicht nur Personen, die in der Öffentlichkeit stehen, müssen zusehen, wie ihr Konterfei für zweifelhafte Zwecke verwendet wird. Im Juni 2023 warnte das amerikanische Federal Bureau of Investigation die Öffentlichkeit vor „bösartigen Akteuren“, die KI nutzen, um gefälschte Videos und Bilder mit sexuellen Inhalten von normalen Menschen zu erstellen, um Geld zu erpressen.

Wahrheit oder Fäschung?

Wie man solche Betrügereien erkennen kann, ist ein aktuelles Thema unter KI-Forschern, von denen viele an der NeurIPS, einer der größten Konferenzen auf diesem Gebiet, teilnahmen, die jetzt in New Orleans stattgefunden. Eine ganze Reihe von Unternehmen, von Start-ups bis hin zu etablierten Tech-Giganten wie Intel und Microsoft, bieten Software an, die maschinell erstellte Medien erkennen soll. Die Hersteller großer KI-Modelle suchen unterdessen nach Möglichkeiten, ihre Ergebnisse mit „Wasserzeichen“ zu versehen, damit echte Bilder, Videos oder Texte leicht von maschinell erstellten unterschieden werden können.

Doch solche Technologien haben sich bisher nicht als zuverlässig erwiesen. Die KI-Kenner scheinen ihre Aussichten düster zu beurteilen. Der Economist führte eine (höchst unwissenschaftliche) Umfrage unter den Delegierten der NeurIPS durch. Von 23 Befragten waren 17 der Meinung, dass KI-generierte Medien irgendwann nicht mehr auffindbar sein werden. Nur einer glaubte, dass eine zuverlässige Erkennung möglich sein würde. Die anderen fünf zögerten und zogen es vor, abzuwarten.

Erkennungssoftware beruht auf der Vorstellung, dass KI-Modelle eine Spur hinterlassen werden. Entweder gelingt es ihnen nicht, bestimmte Aspekte echter Bilder und Videos oder von Menschen erstellter Texte zu reproduzieren, oder sie fügen etwas Überflüssiges hinzu – und zwar so oft, dass andere Software den Fehler erkennt. Eine Zeit lang konnte der Mensch diese Aufgabe übernehmen. Bis etwa Mitte 2023 erzeugten Algorithmen zur Bilderzeugung beispielsweise oft Menschen mit missgebildeten Händen oder verwechselten die Zahlen auf Zifferblättern. Heutzutage tun das die besten nicht mehr.

Aber solche Verräter gibt es oft immer noch, auch wenn es für Menschen immer schwieriger wird, sie zu erkennen. So wie Maschinen darauf trainiert werden können, Katzen oder Krebstumore auf medizinischen Scans zuverlässig zu erkennen, können sie auch darauf trainiert werden, zwischen echten und von der KI generierten Bildern zu unterscheiden.

Es scheint jedoch, dass sie dies nicht so gut können. Die Erkennungssoftware neigt sowohl zu falsch-positiven Ergebnissen (die fälschlicherweise menschliche Inhalte als von KI generiert kennzeichnen) als auch zu falsch-negativen Ergebnissen (die maschinell generierte Inhalte unerkannt durchlassen). Eine im September veröffentlichte Vorabveröffentlichung von Zeyu Lu, Informatiker an der Shanghai Jiao Tong University, ergab, dass das leistungsstärkste Programm computergenerierte Bilder 13 Prozent der Fälle nicht richtig erkannte, obwohl dies besser war als bei den Menschen, die sich in 39 Prozent der Fälle irrten. Bei Texten sieht es nicht viel besser aus. Eine Analyse, die im Dezember im International Journal of Educational Integrity veröffentlicht wurde, verglich 14 Tools und stellte fest, dass keines eine Genauigkeit von mehr als 80 Prozent erreichte.

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren

Ab Februar 2024: 45 deutsche Unternehmen testen die Vier-Tage-Woche Innovation & Future
Ab Februar 2024: 45 deutsche Unternehmen testen die Vier-Tage-Woche
Wir entdecken die Magie der Innovation und feiern den Tag der Innovation am 16. Februar Innovation & Future
Wir entdecken die Magie der Innovation und feiern den Tag der Innovation am 16. Februar
Gründen im Studium: Sie haben sich getraut und verraten ihre Tipps – Teil 2 Innovation & Future
Gründen im Studium: Sie haben sich getraut und verraten ihre Tipps – Teil 2
Der Europa-Gipfel Innovation & Future
Der Europa-Gipfel
Präzise Übersetzungen für den Papst und Selenskyj: Die Schweizer von Vidby bauen mit KI das Next-Level-Tool  Innovation & Future
Präzise Übersetzungen für den Papst und Selenskyj: Die Schweizer von Vidby bauen mit KI das Next-Level-Tool