Tech & Trends Anthropic leakt 500.000 Zeilen Claude-Code — und keiner will’s gewesen sein

Anthropic leakt 500.000 Zeilen Claude-Code — und keiner will’s gewesen sein

Das „vorsichtige KI-Unternehmen“ Anthropic legt versehentlich den kompletten Quellcode seines Programmieragenten offen. Ein Kästchen nicht angehakt, 512.000 Zeilen Code im Netz — inklusive dubioser „Undercover Mode“-Funktion.

Wenn sich ein Unternehmen öffentlich als „das vorsichtige KI-Unternehmen“ inszeniert, sollte man vielleicht nicht zweimal innerhalb einer Woche vertrauliche Daten ins Internet pusten. Anthropic hat genau das geschafft: Am Dienstag landeten rund 512.000 Zeilen Quellcode von Claude Code — dem Programmieragenten, der OpenAI gerade nervös macht — frei zugänglich im Netz. Schuld war eine 60 Megabyte schwere Source-Map-Datei, die bei Version 2.1.88 auf der Entwicklerplattform NPM mitgeliefert wurde.

Der Sicherheitsforscher Chaofan Shou entdeckte den Fail fast sofort und postete auf X. Über 30 Millionen Views später war der Code auf GitHub archiviert, kopiert, analysiert — und Anthropic verschickte hektisch Unterlassungserklärungen, wie das Handelsblatt berichtet. Die offizielle Sprachregelung: „Menschliches Versagen“, kein Hackerangriff, keine betroffenen Kundendaten. Intern dürfte man weniger gelassen formuliert haben.

Der Undercover-Modus, den niemand bestellt hat

Was die 1.900 geleakten Dateien besonders brisant macht: Sie offenbaren eine Funktion namens „Undercover Mode“, die es Claude Code angeblich erlaubt, zu Open-Source-Projekten beizutragen, ohne sich als KI zu erkennen zu geben. Laut Trending Topics wirft das ernste Fragen auf: Open-Source-Communities leben von Transparenz.

Wenn AI-Beiträge nicht identifizierbar sind, wird systematisch Vertrauen untergraben — ausgerechnet von einem Unternehmen, das sich ethische Standards auf die Fahne schreibt. Die technischen Details sind nicht weniger aufschlussreich. Developer analysierten den Code als „production-grade developer experience, not just a wrapper around an API“, wie TechCrunch zitiert. Das erklärt, warum OpenAI gerade sein Video-Tool Sora einstampfte, um sich auf Entwickler-Tools zu konzentrieren: Claude Code ist kein Marketing-Gimmick, sondern echte Konkurrenz.

Timing könnte schlechter nicht sein

Der Leak trifft Anthropic in einer Phase, in der das Unternehmen eigentlich Oberwasser haben sollte. Seit dem Launch von Claude Code im März 2025 hat sich das Tool als bevorzugtes Vibe-Coding-Instrument etabliert. Die Weigerung, bedingungslos mit dem US-Verteidigungsministerium zu kooperieren, brachte zusätzlichen Zuspruch — und die Pentagon-Einstufung als „Lieferkettenrisiko“. Jetzt steht die Konkurrenz mit detaillierten Architektureinblicken da.

Ob das langfristig relevant bleibt, ist offen — das Feld bewegt sich schnell. Aber dass es überhaupt passieren konnte, wirft Fragen an die internen Prozesse auf. Zumal es der zweite Vorfall binnen einer Woche war: Vergangenen Donnerstag hatte Anthropic bereits fast 3.000 interne Dateien öffentlich gemacht, darunter einen Draft-Blogpost zu einem unangekündigten Modell namens Mythos, so TechCrunch.

Business Punk Check

Die Inszenierung als „responsible AI company“ bekommt gerade Kratzer. Zweimal innerhalb von sieben Tagen sensible Daten leaken — das ist keine Pechsträhne, das ist ein Systemproblem. Die Undercover-Mode-Funktion ist dabei der eigentliche Skandal: Wenn Anthropic AI-Beiträge in Open-Source-Projekten verschleiern will, während man sich öffentlich als Transparenz-Champion geriert, ist das schlicht Heuchelei. Für Konkurrenten ist der Code Gold wert — nicht wegen einzelner Features, sondern wegen der Architektur-Philosophie. Für Anthropic wird entscheidend sein, wie schnell man von „menschlichem Versagen“ zu belastbaren Prozessen kommt.

Die Ausrede verfängt nur einmal. Bei zweimal wirkt sie wie Inkompetenz. Und in einem Markt, in dem OpenAI, Google und Meta mit Milliarden um Developer-Mindshare kämpfen, ist Vertrauen die härteste Währung. Anthropic hat gerade einen teuren Kredit aufgenommen.

Häufig gestellte Fragen

Was genau wurde bei Anthropic geleakt?

Rund 512.000 Zeilen Quellcode von Claude Code, dem Programmieragenten von Anthropic, landeten durch eine fehlerhafte Source-Map-Datei öffentlich im NPM-Register. Die 1.900 Dateien enthalten die komplette Architektur des Tools — nicht jedoch die KI-Modelle selbst oder Nutzerdaten.

Was ist der Undercover Mode?

Eine im Code entdeckte Funktion, die es Claude Code ermöglichen soll, zu Open-Source-Projekten beizutragen, ohne sich als KI zu erkennen zu geben. Das untergräbt das Transparenzprinzip von Open-Source-Communities und steht im Widerspruch zu Anthropics öffentlichem Selbstbild als verantwortungsvolles KI-Unternehmen.

Sind Nutzerdaten betroffen?

Nach bisherigen Erkenntnissen nicht. Laut Anthropic waren weder Zugangsdaten noch personenbezogene Kundendaten Teil des Leaks. Der Vorfall wird als Konfigurationsfehler bei der Paketierung eingestuft, nicht als Sicherheitslücke oder Hackerangriff.

Warum ist der Leak für Anthropic so heikel?

Timing und Wiederholung. Es ist der zweite schwere Datenschutz-Vorfall binnen einer Woche. Zudem befindet sich Anthropic gerade im Konkurrenzkampf mit OpenAI um Developer-Marktanteile — während man sich gleichzeitig als besonders sorgfältiges KI-Unternehmen positioniert.

Quellen: TechCrunch, t3n, Handelsblatt, Trending Topics, The Decoder

Das könnte dich auch interessieren