Business & Beyond Pentagon gegen Silicon Valley: Anthropic landet als Staatsfeind auf der Blacklist

Pentagon gegen Silicon Valley: Anthropic landet als Staatsfeind auf der Blacklist

Das US-Verteidigungsministerium brandmarkt Anthropic als Supply-Chain-Risiko — ein Label, das bisher nur Nordkorea und China trugen. CEO Dario Amodei zieht vor Gericht und nennt OpenAIs Deal „safety theater“.

Das Pentagon behandelt Anthropic wie einen ausländischen Feind. Als erstes amerikanisches Technologieunternehmen erhielt die KI-Firma das Label „Supply-Chain-Risiko“ — eine Einstufung, die normalerweise Huawei oder russischen Rüstungslieferanten vorbehalten ist. Der Grund: CEO Dario Amodei weigerte sich, dem Militär uneingeschränkten Zugang zu seinen KI-Modellen zu gewähren.

Der gescheiterte 200-Millionen-Dollar-Vertrag scheiterte an einer Klausel, die Anthropic als Blankocheck für staatliche Überwachung deutete. Das Pentagon wollte Claude, Anthropics KI-Flaggschiff, für „any lawful use“ einsetzen können. Amodei bestand darauf, dass sein Modell weder für Massenüberwachung amerikanischer Bürger noch für vollautonome Waffensysteme genutzt wird. Als das Militär nicht einlenkte, platzte der Deal.

Hegseth setzt Ultimatum — Amodei klagt

Verteidigungsminister Pete Hegseth gab Amodei eine Deadline: Freitag, 17:01 Uhr. Entweder Anthropic unterschreibt, oder die Firma wird zur Persona non grata im Pentagon-Universum. Das Treffen dauerte weniger als eine Stunde, die Atmosphäre war eisig. Amodei blieb hart — und kündigte rechtliche Schritte an. Seine Argumentation: Die Supply-Chain-Einstufung verletze US-Recht und sei ein politischer Racheakt.

Amodei beruft sich auf die Verteidigungsrichtlinie 3000.09, die menschliche Kontrolle bei Waffensystemen vorschreibt. Zudem kritisiert er, dass Anthropic trotz der Blockade weiterhin Pentagons Iran-Operationen unterstützt — ein bizarres Arrangement, das die Widersprüche dieser Eskalation offenlegt. Währenddessen jubelt OpenAI. Sam Altmans Firma sprang in die Bresche und unterschrieb einen Vertrag mit der berüchtigten „all lawful purposes“-Klausel. Altman versichert, dass Massenüberwachung und autonome Killer-Drohnen explizit ausgeschlossen seien. Amodei nennt das in einem internen Memo „straight up lies“ und „safety theater“. Der Vorwurf: OpenAI wolle nur Mitarbeiter beruhigen, während Anthropic echte Prinzipien verteidige.

OpenAI-Mitarbeiter rebellieren

Die ChatGPT-Uninstalls schossen nach dem Pentagon-Deal um 295 Prozent nach oben. Ein viraler #QuitGPT-Protest mobilisiert OpenAI-Mitarbeiter und Tech-Aktivisten. Hunderte Angestellte von OpenAI und Google fordern in einem offenen Brief, dass das Pentagon die Einstufung zurückzieht und der Kongress eingreift.

Ehemalige OpenAI-Sicherheitsexpertin Sarah Shoker warnt vor den vagen Formulierungen des Vertrags. Die politische Dimension verschärft den Konflikt. Trump postete auf Truth Social, Anthropic-Technologie müsse sofort aus allen Bundesbehörden verschwinden.

Business Punk Check

Anthropic spielt Moral-Olympiade, während OpenAI das Geschäft macht — und beide verlieren. Amodei inszeniert sich als Tech-Gandhi, aber seine Firma verdient trotzdem Millionen mit Pentagon-Einsätzen im Iran. OpenAI wiederum verkauft „Schutzklauseln“, die rechtlich so wasserdicht sind wie ein Sieb: Gesetze ändern sich, „lawful use“ ist Gummiband-Rhetorik.

Die eigentliche Story? Ein Regulierungsvakuum, das Tech-Titanen zwingt, selbst auszuhandeln, was ethisch ist — während das Pentagon mit Blacklist-Drohungen Politik macht. Europas KI Act wirkt plötzlich wie der erwachsene im Raum. Für Anthropic steht der Marktzugang auf dem Spiel, für OpenAI das Vertrauen der Entwickler. Gewinner: Niemand. Verlierer: Die Illusion, dass Silicon Valley sich selbst regulieren kann.

Häufig gestellte Fragen

Was ist ein Supply-Chain-Risiko und warum ist das historisch?

Diese Einstufung sperrt Anthropic-Technologie aus der Pentagon-Lieferkette aus. Normalerweise betrifft sie ausländische Firmen wie Huawei. Anthropic ist das erste amerikanische Tech-Unternehmen mit diesem Label — ein Präzedenzfall, der die Grenzen zwischen nationaler Sicherheit und Regulierung verwischt.

Warum lehnte Anthropic den Pentagon-Vertrag ab?

Anthropic verweigerte die „any lawful use“-Klausel, die uneingeschränkten Zugriff auf Claude erlaubt hätte. CEO Dario Amodei befürchtete Missbrauch für Massenüberwachung und vollautonome Waffensysteme ohne menschliche Kontrolle. Das Pentagon sah darin Vertragsbruch und stufte die Firma als Risiko ein.

Was unterscheidet OpenAIs Pentagon-Deal von Anthropics Ablehnung?

OpenAI unterschrieb mit der „all lawful purposes“-Klausel, verspricht aber Ausschlüsse für Überwachung und autonome Waffen via Vertragsdetails. Kritiker wie Amodei nennen das Augenwischerei, da Gesetze sich ändern können. ChatGPT-Uninstalls stiegen um 295 Prozent nach Bekanntgabe.

Welche rechtlichen Chancen hat Anthropic vor Gericht?

Amodei argumentiert, die Einstufung sei unverhältnismäßig und verletze Verteidigungsrichtlinien zur menschlichen Waffenkontrolle. Gerichte sind jedoch zurückhaltend bei nationalen Sicherheitsfragen. Die Hürde ist hoch, aber nicht unmöglich — der Ausgang bleibt offen.

Quellen: Borncity, The-decoder, Handelsblatt, Marketscreener, Euronews, TechCrunch, Bloomberg, The Information

Das könnte dich auch interessieren