Tech & Trends Krieg per Algorithmus: Palantirs Maven-KI verändert das Schlachtfeld

Krieg per Algorithmus: Palantirs Maven-KI verändert das Schlachtfeld

Palantirs Maven-System nutzt KI-Chatbots für militärische Zielauswahl. Das Pentagon demonstriert, wie acht Systeme zu einem verschmelzen – und wirft ethische Fragen auf.

Das Pentagon hat auf der AIPCON-Konferenz gezeigt, wie Künstliche Intelligenz militärische Operationen steuert. Palantirs Maven Smart System analysiert Satellitenbilder, identifiziert Ziele und schlägt Angriffsoptionen vor – alles in einer Oberfläche. Cameron Stanley, KI-Chef des Verteidigungsministeriums, demonstrierte live, wie die Software acht bis neun separate Systeme ersetzt. Die Botschaft: Schnellere Entscheidungen bedeuten militärische Überlegenheit. Doch während das Pentagon von Effizienzgewinnen spricht, bleiben unbequeme Fragen offen.

Wie KI-Chatbots militärische Analysten ersetzen

Maven Smart System bündelt Aufklärungsdaten aus Radar, Satelliten und Sensoren in einem einzigen Interface. Analysten fragen den integrierten Chatbot nach feindlichen Einheiten, die KI antwortet mit Einschätzungen basierend auf Bewegungsmustern.

Laut focus erklärt Stanley: „Anstatt dass die Entscheidungsträger jeden Tag acht oder neun Systeme durchsehen müssen, um Entscheidungen zu treffen, bündeln Sie diese in einem einzigen Visualisierungstool.“ Das System schlägt anschließend Handlungsoptionen vor – von Luftangriffen über Artillerie bis zu Bodentruppen. Kommandeure wählen aus, die KI plant die Umsetzung: Routen für Truppen, elektronische Störmaßnahmen gegen feindliche Kommunikation, Zuweisung von Bombern und Munition.

Von 2.000 Analysten auf 20 – Effizienz oder Risiko?

Die Zahlen klingen beeindruckend: Früher brauchte das Militär 2.000 Geheimdienstoffiziere für Zielanalysen, heute erledigen 20 Personen die Arbeit mit Maven-Unterstützung. Palantir-Architekt Chad Wahlquist betont die Geschwindigkeit, mit der das System arbeitet.

Das Maven Smart System wird bereits in der Operation Epic Fury gegen Iran eingesetzt, wie Theregister berichtet. Während der AIPCON-Präsentation zeigte Stanley eine Karte des Nahen Ostens mit dutzenden markierten Zielen im Iran – einige davon deckten sich mit Angriffszielen, bei denen zivile Opfer zu beklagen waren. Die Frage bleibt: Wer trägt Verantwortung, wenn KI-gestützte Systeme Fehler machen?

Anthropic verweigert Zugang – Pentagon schlägt zurück

Die Zusammenarbeit zwischen Palantir und dem KI-Unternehmen Anthropic verlief nicht reibungslos. Im Februar 2025 verweigerte Anthropic der US-Regierung uneingeschränkten Zugang zu seinen Claude-Modellen. Begründung: Die Systeme dürften nicht für Massenüberwachung von Amerikanern oder vollautonome Waffen verwendet werden.

Das Pentagon stufte Anthropics Produkte daraufhin als „Lieferkettenrisiko“ ein. Anthropic reichte zwei Klagen ein und wirft der Trump-Administration illegale Vergeltungsmaßnahmen vor. Trotz des Konflikts läuft Claude weiterhin über Palantirs Artificial Intelligence Platform in Systemen wie Foundry und Gotham.

Project Maven: Von Google zu Palantir

Maven startete 2016 als Antwort auf die Suche nach dem „dritten Offset“ – dem entscheidenden militärischen Vorteil nach Atomwaffen und Präzisionswaffen. Diesmal sollte es die Geschwindigkeit und Präzision von Entscheidungen sein. Google war ursprünglicher Partner, stieg 2018 nach Mitarbeiterprotesten aus.

Palantir übernahm und entwickelte das System über sieben Jahre zur heutigen Form. Heute wird Maven von der National Geospatial-Intelligence Agency verwaltet und über alle Teilstreitkräfte hinweg eingesetzt. Palantir-CEO Alex Karp formulierte auf der AIPCON die Unternehmensphilosophie unmissverständlich: Das Ziel sei, amerikanische Soldaten lebend nach Hause zu bringen – auch wenn das bedeute, dass Menschen auf der Gegenseite sterben.

Business Punk Check

Palantir verkauft Maven als Effizienzwunder – aber verschweigt die ethischen Abgründe. Ein System, das Zielauswahl automatisiert und Angriffsoptionen vorschlägt, verlagert Verantwortung von Menschen auf Algorithmen. Die Frage ist nicht, ob die Technologie funktioniert, sondern wer haftet, wenn KI-gestützte Entscheidungen zu zivilen Opfern führen. Der Konflikt mit Anthropic zeigt: Selbst KI-Unternehmen haben Bedenken gegen militärische Nutzung ihrer Modelle.

Dass das Pentagon Anthropic daraufhin als Sicherheitsrisiko einstuft, offenbart die Machtdynamik. Für Technologieunternehmen bedeutet das: Wer mit dem Militär zusammenarbeitet, muss klare rote Linien ziehen – oder akzeptieren, dass Produkte für Zwecke eingesetzt werden, die ursprünglich nicht vorgesehen waren. Die Effizienzgewinne sind real, aber der Preis könnte höher sein als gedacht.

Häufig gestellte Fragen

Wie funktioniert Palantirs Maven Smart System konkret?

Maven bündelt Daten aus Radar, Satelliten und Sensoren in einer Oberfläche. Analysten stellen Fragen an einen integrierten KI-Chatbot, der Muster erkennt und feindliche Einheiten identifiziert. Das System schlägt anschließend Handlungsoptionen vor – von Luftangriffen bis zu Bodeneinsätzen – und plant nach Freigabe die operative Umsetzung inklusive Routenplanung und Ressourcenzuweisung.

Welche ethischen Bedenken gibt es bei KI-gestützter Zielauswahl?

Die Automatisierung von Zielauswahl verlagert Verantwortung von Menschen auf Algorithmen. Wenn KI-Systeme Fehler machen oder zu zivilen Opfern führen, bleibt unklar, wer haftet. Anthropic verweigerte deshalb uneingeschränkten Zugang zu seinen Modellen und warnte vor Einsatz für Massenüberwachung oder vollautonome Waffen. Die Frage nach Rechenschaftspflicht bleibt ungelöst.

Warum stieg Google aus Project Maven aus?

Google war 2016 ursprünglicher Partner von Project Maven, beendete die Zusammenarbeit aber 2018 nach massiven Protesten der eigenen Mitarbeiter. Die Angestellten lehnten militärische Nutzung von Google-Technologie ab. Palantir übernahm das Projekt und entwickelte es über sieben Jahre zum heutigen Maven Smart System weiter.

Wird Maven bereits in echten Militäroperationen eingesetzt?

Ja, Maven Smart System wird laut Pentagon bereits in der Operation Epic Fury gegen Iran eingesetzt. Das System verkürzt die Zeit zwischen Zielidentifikation und Angriff erheblich. Während der AIPCON-Demonstration zeigte der KI-Chef des Pentagons eine Karte mit dutzenden markierten Zielen im Iran, von denen einige mit tatsächlichen Angriffszielen übereinstimmten.

Welche Rolle spielt Anthropics Claude-Chatbot in Maven?

Anthropics Claude-Chatbot läuft über Palantirs Artificial Intelligence Platform und ist in Systeme wie Foundry und Gotham integriert. Claude beantwortet Fragen, analysiert Daten und führt Aufgaben aus. Trotz des Konflikts zwischen Anthropic und dem Pentagon über Nutzungsbeschränkungen bleibt Claude Teil des Maven-Systems. Anthropic fordert, dass die Modelle nicht für Massenüberwachung oder vollautonome Waffen verwendet werden.

Quellen: Ndtv, Focus, Theregister

Das könnte dich auch interessieren