Tech & Trends KI-Industrie im Panikmodus: Warum Anthropics Pentagon-Nein eine Zeitenwende ist

KI-Industrie im Panikmodus: Warum Anthropics Pentagon-Nein eine Zeitenwende ist

Anthropic verliert 200-Mio-Dollar-Vertrag, weil das Unternehmen Massenüberwachung verweigert. OpenAI übernimmt – und CEO Dario Amodei rastet aus. Der Konflikt zeigt: KI-Ethik ist Luxus, den sich nur wenige leisten können.

Anthropic verliert Vertrag mit dem Pentagon, weil das Unternehmen Massenüberwachung verweigert. OpenAI übernimmt – und CEO Dario Amodei reagiert scharf. Der Konflikt zeigt: KI-Ethik ist Luxus, den sich nur wenige leisten können.

Wer hätte gedacht, dass ausgerechnet ein KI-Unternehmen das Pentagon in die Schranken weist? Anthropic, bislang als braver Partner in klassifizierten Regierungsnetzwerken aktiv, hat seinen Vertrag mit dem US-Verteidigungsministerium gekündigt. Der Grund: Das Pentagon forderte „any lawful use“ – also uneingeschränkten Zugriff auf die Claude-KI, inklusive Massenüberwachung amerikanischer Bürger und vollautonomer Waffensysteme. Anthropic sagte Nein. Und Trump reagierte drastisch.

Der Präsident ordnete per Post auf X an, dass Bundesbehörden Anthropic-Technologie umgehend einstellen sollen. Verteidigungsminister Pete Hegseth ging noch weiter und stufte das Unternehmen als „Supply-Chain-Risk“ ein – eine Designation, die bisher nur für ausländische Gegner wie chinesische Firmen reserviert war. Die Folge: Jeder Zulieferer und Partner des Militärs darf künftig keine Geschäfte mehr mit Anthropic machen. Innerhalb von sechs Monaten muss das Unternehmen aus allen Regierungssystemen entfernt werden.

OpenAI übernimmt – und Amodei reagiert scharf

Kaum war Anthropic raus, sprang OpenAI ein. Sam Altman verkündete auf X einen neuen Deal mit dem Pentagon, der angeblich dieselben ethischen Prinzipien gegen Massenüberwachung und autonome Waffen enthält. Laut Berichten äußert Anthropic scharfe Kritik an der Einstufung und wirft OpenAI vor, „Safety Theater“ zu betreiben – Sicherheit als PR-Gag, während man sich beim Militär anbiedert.

Die Kritik ist nachvollziehbar. Denn der entscheidende Unterschied liegt im Detail: Anthropic weigerte sich, konkrete Schutzvorkehrungen in seiner KI zu entfernen. OpenAI hingegen akzeptierte die Pentagon-Formel „all lawful purposes“ – mit dem schwammigen Zusatz, dass Massenüberwachung „derzeit illegal“ sei. Was passiert, wenn sich Gesetze ändern? OpenAI schweigt.

Die Öffentlichkeit stimmt mit den Füßen ab

Die Nutzer haben längst entschieden: Berichte deuten auf einen deutlichen Nutzerwechsel zu Claude hin, nachdem OpenAIs Pentagon-Deal bekannt wurde. Anthropics Claude kletterte dafür auf Platz 2 der App-Store-Charts. Medienberichten zufolge sieht sich Anthropic als Verteidiger ethischer Prinzipien. Doch der Sieg könnte teuer werden: Der Rauswurf aus der Pentagon-Lieferkette bedroht nicht nur den Vertrag, sondern auch Geschäfte mit anderen Kunden, die mit dem Militär zusammenarbeiten.

Anthropic kündigte an, die „Supply-Chain-Risk“-Designation vor Gericht anzufechten. Das Unternehmen argumentiert, dass diese Einstufung historisch nur gegen ausländische Feinde eingesetzt wurde, niemals gegen ein amerikanisches Unternehmen. Die Klage wird zeigen, ob ein privater Konzern überhaupt das Recht hat, Regierungsaufträge nach ethischen Kriterien abzulehnen – oder ob nationale Sicherheit jeden Widerstand bricht.

Business Punk Check

Anthropic spielt Märtyrer, aber die Wahrheit ist komplexer: Keines der großen KI-Unternehmen – weder Anthropic noch OpenAI, Google DeepMind oder xAI – hat jemals ernsthaft für verbindliche Sicherheitsregulierung gekämpft. Alle haben ihre eigenen Versprechen gebrochen, sobald der kommerzielle Druck zu groß wurde. Der Pentagon-Konflikt ist kein Heldenakt, sondern Symptom eines Systems, das sich selbst in die Ecke manövriert hat.

Wer jahrelang gegen Regulierung lobbyiert und „Trust us“ ruft, hat keine moralische Autorität mehr, wenn die Regierung tatsächlich unbeschränkten Zugriff fordert. Europäische KI-Entwickler sollten aufhorchen: Der AI Act mag nervig sein, aber er schützt Unternehmen vor genau solchen Erpressungsversuchen. Die USA haben jetzt weniger KI-Regulierung als für Sandwiches – und das Chaos ist programmiert.

Häufig gestellte Fragen

Warum hat Anthropic den Pentagon-Vertrag abgelehnt?

Das Unternehmen weigerte sich, Schutzmechanismen gegen Massenüberwachung und vollautonome Waffensysteme zu entfernen. Das Pentagon forderte „any lawful use“ – uneingeschränkten Zugriff auf die Claude-KI für militärische Zwecke. Anthropic argumentiert, dass aktuelle Gesetze der KI-Macht nicht gewachsen sind.

Was bedeutet die „Supply-Chain-Risk“-Einstufung für Anthropic?

Verteidigungsminister Pete Hegseth stufte Anthropic als Risiko für die nationale Sicherheit ein. Alle Pentagon-Zulieferer und -Partner dürfen künftig keine Geschäfte mehr mit dem Unternehmen machen. Das betrifft potenziell auch große Teile der Tech-Industrie und gefährdet Anthropics Geschäftsmodell massiv.

Unterscheidet sich OpenAIs Pentagon-Deal wirklich von Anthropics Angebot?

OpenAI akzeptierte die Formel „all lawful purposes“ mit dem Zusatz, dass Massenüberwachung derzeit illegal sei. Anthropic wollte harte technische Schutzvorkehrungen verankern, die auch bei Gesetzesänderungen greifen. Laut Berichten kritisiert Anthropic OpenAIs Darstellung scharf – die Unterschiede seien nur Marketing.

Warum wechseln Nutzer nach dem Pentagon-Deal zu Claude?

Nach Bekanntwerden von OpenAIs Militär-Kooperation deuten Berichte auf einen deutlichen Nutzerwechsel hin. Anthropics Claude kletterte in den App-Charts auf Platz 2. Der öffentliche Backlash zeigt: Viele Kunden lehnen militärische KI-Nutzung grundsätzlich ab.

Quellen: Boerse-am-sonntag, Stern, Borncity, Ad-hoc-news, Techcrunch

Das könnte dich auch interessieren