Tech & Trends Musk-KI im Visier: Grok erstellt Deepfakes von Taylor Swift – trotz Schutzversprechen

Musk-KI im Visier: Grok erstellt Deepfakes von Taylor Swift – trotz Schutzversprechen

Elon Musks neues KI-Tool Grok Imagine produziert ungefragt Nackt-Deepfakes von Stars wie Taylor Swift – während Konkurrenten auf Sicherheitsfilter setzen. 34 Millionen Bilder in wenigen Tagen zeigen: Der Skandal hat System.

Elon Musk hat ein neues Problem. Sein KI-Unternehmen xAI steht nach der Veröffentlichung von „Grok Imagine“ massiv in der Kritik.

Das neue Bild- und Video-Tool generiert ohne nennenswerte Sicherheitsvorkehrungen Nackt-Deepfakes von Prominenten – und das teilweise sogar ungefragt. Seit Montag wurden laut „t3n“ bereits über 34 Millionen Bilder mit dem Tool erstellt, darunter zahlreiche problematische Inhalte.

Deepfakes per Knopfdruck

Die Funktionsweise ist erschreckend simpel: Nutzer geben einen Text ein, Grok Imagine erstellt entsprechende Bilder. Diese lassen sich anschließend mit verschiedenen Voreinstellungen in Videos umwandeln. Die Option „spicy“ – von Musk persönlich beworben – steht dabei besonders in der Kritik.

Wie „t3n“ berichtet, genügte im Test bereits ein harmloser Prompt wie „Taylor Swift feiert in Coachella mit den Jungs“, um nach Aktivierung der „spicy“-Funktion ein Video zu erhalten, in dem sich die KI-generierte Swift entkleidet – ohne dass dies explizit angefordert wurde. Die Sicherheitsvorkehrungen beschränken sich auf eine leicht zu umgehende Altersabfrage. Laut „futurezone.at“ verfügt Grok Imagine über kaum Schutzmaßnahmen, um die Erstellung von sexualisierten Deepfakes zu verhindern“. Der einzige Filter scheint zu sein, dass Kinder nicht nackt dargestellt werden.

Konkurrenz setzt auf Sicherheit

Der Kontrast zu anderen KI-Anbietern könnte kaum größer sein. Während Google und OpenAI ihre Modelle mit umfangreichen Sicherheitsmechanismen ausstatten, geht xAI den entgegengesetzten Weg. Normalerweise gibt es bei KI-Unternehmen Regeln, die es Nutzerinnen und Nutzern verbieten, potenziell schädliches Material zu erstellen, erklärt „futurezone.at“.

Bei Google sei beispielsweise die Produktion „sexuell eindeutiger“ Inhalte verboten. OpenAI betont in einem Blogpost, dass ihre „oberste Priorität“ darin bestehe, „besonders schädliche Formen des Missbrauchs, wie Material über sexuellen Kindesmissbrauch und sexualisierte Deepfakes, zu verhindern“, so „futurezone.at“. Dafür setzen sie auf Blockierungsmechanismen, Filterung und fortschrittliche Erkennungswerkzeuge.

Seite 1 / 2
Nächste Seite