Innovation & Future Deepfake Dschungel: KI-Fälscher am Steuer, Forscher auf Spurensuche

Deepfake Dschungel: KI-Fälscher am Steuer, Forscher auf Spurensuche

Wie lassen sich KI erzeugte Bilder und Videos von denen unterscheiden, die von Menschen gemacht sind und versuchen, eine Realität abzubilden? Forscher tüfteln an Sicherheitstechnologien. Bislang fehlt ihnen die zündende Idee. 

Rishi Sunak ist der britische Premierminister. Wenn man einigen Werbeanzeigen auf Facebook trauen kann (was nicht der Fall ist), scheint er auch für „Schnell-reich-werden“-Systeme zu werben. In einer dieser Anzeigen wirbt Sunak für eine App, die angeblich von Elon Musk, einem Geschäftsmann, entwickelt wurde und mit der die Zuschauer regelmäßig „sparen“ können.

Das Video ist eine Fälschung. Es wurde mit Hilfe von künstlicher Intelligenz erstellt und ist nur eine von 143 Werbungen dieser Art, die von der britischen Firma Fenimore Harper Communications aufgelistet wurden und im Dezember und Januar liefen. Nicht nur Personen, die in der Öffentlichkeit stehen, müssen zusehen, wie ihr Konterfei für zweifelhafte Zwecke verwendet wird. Im Juni 2023 warnte das amerikanische Federal Bureau of Investigation die Öffentlichkeit vor „bösartigen Akteuren“, die KI nutzen, um gefälschte Videos und Bilder mit sexuellen Inhalten von normalen Menschen zu erstellen, um Geld zu erpressen.

Wahrheit oder Fäschung?

Wie man solche Betrügereien erkennen kann, ist ein aktuelles Thema unter KI-Forschern, von denen viele an der NeurIPS, einer der größten Konferenzen auf diesem Gebiet, teilnahmen, die jetzt in New Orleans stattgefunden. Eine ganze Reihe von Unternehmen, von Start-ups bis hin zu etablierten Tech-Giganten wie Intel und Microsoft, bieten Software an, die maschinell erstellte Medien erkennen soll. Die Hersteller großer KI-Modelle suchen unterdessen nach Möglichkeiten, ihre Ergebnisse mit „Wasserzeichen“ zu versehen, damit echte Bilder, Videos oder Texte leicht von maschinell erstellten unterschieden werden können.

Doch solche Technologien haben sich bisher nicht als zuverlässig erwiesen. Die KI-Kenner scheinen ihre Aussichten düster zu beurteilen. Der Economist führte eine (höchst unwissenschaftliche) Umfrage unter den Delegierten der NeurIPS durch. Von 23 Befragten waren 17 der Meinung, dass KI-generierte Medien irgendwann nicht mehr auffindbar sein werden. Nur einer glaubte, dass eine zuverlässige Erkennung möglich sein würde. Die anderen fünf zögerten und zogen es vor, abzuwarten.

Erkennungssoftware beruht auf der Vorstellung, dass KI-Modelle eine Spur hinterlassen werden. Entweder gelingt es ihnen nicht, bestimmte Aspekte echter Bilder und Videos oder von Menschen erstellter Texte zu reproduzieren, oder sie fügen etwas Überflüssiges hinzu – und zwar so oft, dass andere Software den Fehler erkennt. Eine Zeit lang konnte der Mensch diese Aufgabe übernehmen. Bis etwa Mitte 2023 erzeugten Algorithmen zur Bilderzeugung beispielsweise oft Menschen mit missgebildeten Händen oder verwechselten die Zahlen auf Zifferblättern. Heutzutage tun das die besten nicht mehr.

Aber solche Verräter gibt es oft immer noch, auch wenn es für Menschen immer schwieriger wird, sie zu erkennen. So wie Maschinen darauf trainiert werden können, Katzen oder Krebstumore auf medizinischen Scans zuverlässig zu erkennen, können sie auch darauf trainiert werden, zwischen echten und von der KI generierten Bildern zu unterscheiden.

Es scheint jedoch, dass sie dies nicht so gut können. Die Erkennungssoftware neigt sowohl zu falsch-positiven Ergebnissen (die fälschlicherweise menschliche Inhalte als von KI generiert kennzeichnen) als auch zu falsch-negativen Ergebnissen (die maschinell generierte Inhalte unerkannt durchlassen). Eine im September veröffentlichte Vorabveröffentlichung von Zeyu Lu, Informatiker an der Shanghai Jiao Tong University, ergab, dass das leistungsstärkste Programm computergenerierte Bilder 13 Prozent der Fälle nicht richtig erkannte, obwohl dies besser war als bei den Menschen, die sich in 39 Prozent der Fälle irrten. Bei Texten sieht es nicht viel besser aus. Eine Analyse, die im Dezember im International Journal of Educational Integrity veröffentlicht wurde, verglich 14 Tools und stellte fest, dass keines eine Genauigkeit von mehr als 80 Prozent erreichte.

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren

Watchlist 2024: 100 Köpfe, die ihr kennen müsst! Innovation & Future
Watchlist 2024: 100 Köpfe, die ihr kennen müsst!
Im Stau stehen? Von wegen! Flugauto Evtol rettet uns bereits 2025 vor stehendem Verkehr Innovation & Future
Im Stau stehen? Von wegen! Flugauto Evtol rettet uns bereits 2025 vor stehendem Verkehr
Neue Chancen für Startups: Das beinhaltet die neue Strategie der Bundesregierung Innovation & Future
Neue Chancen für Startups: Das beinhaltet die neue Strategie der Bundesregierung
Warum kein Unternehmen mehr Corporate Venture Capital braucht Innovation & Future
Warum kein Unternehmen mehr Corporate Venture Capital braucht
Revolution im Immobilienmarkt: Die KI-Welle rollt an Innovation & Future
Revolution im Immobilienmarkt: Die KI-Welle rollt an