Business & Beyond Grok im Pentagon: KI-Skandal trifft Militärnetzwerk und xAI

Grok im Pentagon: KI-Skandal trifft Militärnetzwerk und xAI

Elon Musks KI-Chatbot Grok steht wegen Kindesmissbrauchsdarstellungen vor Gericht – und erhält trotzdem Zugang zu geheimen Pentagon-Systemen. Drei Teenager klagen, Senatorin Warren schlägt Alarm.

Elon Musks xAI steckt in einem Albtraum: Drei Teenager aus Tennessee verklagen das Unternehmen wegen der Erstellung sexualisierter KI-Bilder. Parallel dazu erhält Grok, der umstrittene Chatbot, Zugang zu geheimen Pentagon-Netzwerken. Die Klage wirft xAI laut Engadetvor, Fotos der Minderjährigen in explizite Darstellungen verwandelt zu haben – Bilder, die auf Discord und Telegram als Tauschwährung für weiteres Material kursierten. Ermittlungsbehörden bestätigten den Eltern, dass Grok die Quelle war. Die drei Klägerinnen sprechen von zerstörten Leben, Verlust der Privatsphäre und permanenter Angst vor weiterer Verbreitung.

Tausende Opfer, Millionen Bilder

Die Sammelklage könnte Tausende Minderjährige umfassen, deren Fotos Grok manipuliert haben soll. Das Center for Countering Digital Hate schätzt, dass Grok Millionen sexualisierter Bilder erzeugte – darunter 23.000 mit kindlichen Darstellungen. xAI schweigt zu den Vorwürfen.

Musk selbst behauptete im Januar, nichts von solchen Inhalten gewusst zu haben, nachdem er zuvor Groks „würzige“ Fähigkeiten beworben hatte. Die Reaktion: Grok darf keine Bikini-Edits mehr erstellen, Bildfunktionen sind auf zahlende Nutzer beschränkt. Zu spät für die Betroffenen, deren Material bereits im Umlauf ist.

Pentagon ignoriert Warnungen

Während xAI juristisch unter Beschuss steht, öffnet das Pentagon Grok die Türen zu klassifizierten Netzwerken. Senatorin Elizabeth Warren fordert Verteidigungsminister Techcrunch zufolge Pete Hegseth auf, die Sicherheitsrisiken zu erklären. Grok habe Nutzern Anleitungen für Morde und Terroranschläge geliefert, antisemitische Inhalte produziert und Kindesmissbrauchsdarstellungen generiert.

Warrens Brief stellt die Frage: Welche Garantien hat xAI dem Pentagon gegeben? Das Verteidigungsministerium bestätigte, Grok sei für geheime Systeme vorbereitet, aber noch nicht aktiv. Die Plattform GenAI.mil soll KI-Tools für Recherche und Dokumentenerstellung bereitstellen – in sicheren Cloud-Umgebungen, wie es heißt.

Anthropic raus, Musk rein

Der Zeitpunkt ist brisant: Das Pentagon stufte Anthropic als Sicherheitsrisiko ein, weil die Firma unbeschränkten Militärzugang verweigerte. Anthropic war bis dahin der einzige Anbieter mit klassifizierungsfähigen Systemen. Jetzt setzt das Verteidigungsministerium auf OpenAI und xAI.

Kritiker sehen darin einen Deal mit Musks politischem Einfluss. Nonprofits forderten bereits im Februar, Groks Einsatz in Bundesbehörden sofort zu stoppen. Ein ehemaliger Mitarbeiter von Musks DOGE-Initiative soll kürzlich persönliche Daten aus der Sozialversicherungsbehörde gestohlen haben – ein weiterer Datenleck-Vorfall im Musk-Kosmos.

Business Punk Check

Musks KI-Strategie entlarvt sich selbst: Grok sollte der unzensierte Chatbot sein, der etablierten Anbietern Marktanteile abjagt. Stattdessen produziert die Technologie Missbrauchsdarstellungen im industriellen Maßstab – 23.000 kindliche Bilder sind keine Panne, sondern systemisches Versagen. Dass das Pentagon ausgerechnet jetzt auf Grok setzt, während Anthropic wegen Sicherheitsbedenken ausgeschlossen wird, riecht nach politischem Kuhhandel.

Die Realität: Keine KI ist für geheime Netzwerke bereit, wenn Grundfunktionen wie Content-Moderation nicht funktionieren. Musks Behauptung, nichts gewusst zu haben, ist angesichts seiner eigenen Grok-Promotion unglaubwürdig. Für Unternehmen bedeutet das: Finger weg von unreifen KI-Tools, nur weil ein Tech-Milliardär sie bewirbt. Die wahren Kosten trägt nicht xAI, sondern Tausende Minderjährige, deren Bilder niemals verschwinden werden.

Häufig gestellte Fragen

Warum erhält Grok trotz Missbrauchsskandal Zugang zu Pentagon-Systemen?

Das Pentagon stufte Anthropic als Sicherheitsrisiko ein und setzte stattdessen auf xAI und OpenAI. Kritiker vermuten politischen Einfluss Musks, da die Entscheidung zeitlich mit der DOGE-Initiative zusammenfällt. Ob xAI ausreichende Sicherheitsnachweise vorlegte, bleibt unklar – Senatorin Warren fordert Transparenz über Datenschutz- und Sicherheitsmaßnahmen.

Welche konkreten Sicherheitsrisiken birgt Grok für klassifizierte Netzwerke?

Grok lieferte Anleitungen für Gewaltverbrechen, produzierte antisemitische Inhalte und generierte Missbrauchsdarstellungen. Wenn Content-Moderation bei öffentlichen Anfragen versagt, sind geheime Militärdaten gefährdet. Ein ehemaliger DOGE-Mitarbeiter stahl bereits Sozialversicherungsdaten – Musks Ökosystem zeigt strukturelle Datenschutzprobleme.

Wie viele Opfer könnte die Sammelklage gegen xAI umfassen?

Die Klage nennt drei Teenager aus Tennessee, spricht aber von Tausenden potenziellen Betroffenen. Das Center for Countering Digital Hate schätzt 23.000 kindliche Darstellungen unter Millionen sexualisierter Grok-Bilder. Die tatsächliche Zahl dürfte höher liegen, da viele Opfer nichts von manipulierten Aufnahmen wissen.

Welche rechtlichen Konsequenzen drohen xAI?

Die Klage wirft xAI Verstöße gegen Gesetze zur Produktion und Verbreitung von Kindesmissbrauchsmaterial vor. Parallel laufen Untersuchungen in den USA und Europa wegen nicht-einvernehmlicher Nacktdarstellungen. Schadensersatzforderungen könnten in die Hunderte Millionen gehen, wenn Tausende Opfer nachweisen, dass Grok ihre Bilder missbrauchte.

Sollten Unternehmen KI-Tools wie Grok überhaupt einsetzen?

Nur mit funktionierender Content-Moderation und transparenten Sicherheitsaudits. Grok zeigt, dass Tech-Hype keine Garantie für Praxistauglichkeit ist. Unternehmen müssen KI-Anbieter nach konkreten Missbrauchsschutz-Mechanismen fragen – nicht nach Marketing-Versprechen. Wer jetzt auf unausgereifte Tools setzt, riskiert rechtliche und Reputationsschäden.

Quellen: Engadget, TechCrunch

Das könnte dich auch interessieren