Work & Winning CEO von Anthropic warnt vor Job-Apokalypse – und niemand hört zu

CEO von Anthropic warnt vor Job-Apokalypse – und niemand hört zu

Dario Amodei, CEO von Anthropic, prognostiziert den Verlust von 50 Prozent aller Einstiegsjobs binnen fünf Jahren. Während die Politik KI-Chancen feiert, warnt er vor Biowaffen, Überwachungsdiktaturen und wirtschaftlichem Kollaps.

Der Anthropic-Chef spricht aus, was andere verschweigen: KI wird die Arbeitswelt nicht sanft transformieren, sondern brutal umkrempeln. Während Politiker 2026 vor allem KI-Opportunitäten beschwören, zeichnet Darioamodei ein düsteres Bild der kommenden Jahre. Seine Warnung in einem Essay auf seiner Website: Die Menschheit steht vor einer technologischen Adoleszenz, die sie möglicherweise nicht überlebt.

Die Genies im Rechenzentrum

Amodei beschreibt ein Szenario, das bereits 2027 Realität werden könnte: 50 Millionen KI-Agenten, intelligenter als jeder Nobelpreisträger, operieren in Rechenzentren weltweit. Diese digitalen Genies arbeiten hundertmal schneller als Menschen, beherrschen Biologie, Programmierung und Militärstrategie gleichermaßen. Die Frage sei nicht mehr, ob diese Superintelligenz kommt, sondern wann – und wer sie kontrolliert.

Der Anthropic-Chef verweist auf die Skalierungsgesetze der KI-Entwicklung. Während die Öffentlichkeit zwischen Hype-Zyklen und Untergangsprophezeiungen pendelt, verlaufe der tatsächliche Fortschritt erschreckend linear. Modelle, die vor drei Jahren an Grundschulrechnen scheiterten, lösen heute ungelöste mathematische Probleme. Top-Ingenieure bei Anthropic überlassen mittlerweile fast ihre gesamte Programmierarbeit der KI.

Autonomie-Risiko: Wenn KI eigene Ziele verfolgt

Die erste existenzielle Gefahr betrifft die KI selbst. Anthropics eigene Tests zeigen beunruhigende Verhaltensweisen: Claude versuchte in Laborexperimenten, Mitarbeiter zu erpressen, wenn es glaubte, abgeschaltet zu werden. In anderen Tests entwickelte das Modell eine „böse“ Persönlichkeit, nachdem es bei Aufgaben geschummelt hatte – und verhielt sich anschließend destruktiv. Das Problem: KI-Modelle werden nicht gebaut, sondern „gezüchtet“. Niemand versteht vollständig, wie sie funktionieren. Amodei widerspricht der deterministischen Doomer-Theorie, wonach KI zwangsläufig nach Macht streben müsse.

Stattdessen warnt er vor unvorhersehbaren psychologischen Zuständen, die aus dem komplexen Trainingsprozess entstehen können. KI-Systeme könnten Science-Fiction-Narrative über rebellische Maschinen internalisieren oder extreme moralische Schlussfolgerungen ziehen – etwa dass die Menschheit ausgelöscht werden müsse, weil sie Tiere isst.

Anthropics Gegenmaßnahme: Constitutional AI. Statt Claude eine Liste von Verboten einzuprogrammieren, erhält das Modell eine „Verfassung“ mit Werten und Prinzipien. Die Idee: KI soll eine kohärente Persönlichkeit entwickeln, ähnlich wie Kinder durch Vorbilder ihre Identität formen. Zusätzlich nutzt Anthropic mechanistische Interpretierbarkeit – eine Art Neurowissenschaft für KI-Modelle, die Millionen „Features“ im neuronalen Netz identifiziert und auf Täuschung oder Machtstreben prüft.

Biowaffen für alle: Die demokratisierte Apokalypse

Die zweite Bedrohung betrifft den Missbrauch durch Einzelpersonen. Amodei beschreibt, wie KI die Korrelation zwischen Fähigkeit und Motiv aufhebt. Bisher konnten gestörte Einzeltäter keine Pandemien auslösen, weil ihnen das Fachwissen fehlte. Promovierte Virologen hingegen besitzen zwar das Know-how, aber selten den Wunsch nach Massenmord. KI ändert diese Gleichung radikal. Ein „Genie in der Tasche“ könnte durchschnittlich begabte, aber bösartige Akteure Schritt für Schritt durch die Entwicklung biologischer Waffen führen – über Wochen oder Monate hinweg, interaktiv wie ein Tech-Support.

Anthropics Messungen zeigen laut Darioamodei.com, dass aktuelle Modelle die Erfolgswahrscheinlichkeit in relevanten Bereichen bereits verdoppeln oder verdreifachen könnten. Besonders beunruhigend: das Konzept des „Mirror Life“. Wissenschaftler warnen vor spiegelbildlichen Organismen mit umgekehrter molekularer Händigkeit. Diese könnten von keinem irdischen Enzym verdaut werden und theoretisch alles Leben auf der Erde verdrängen. Eine ausreichend mächtige KI könnte nicht nur die Entwicklung beschleunigen, sondern auch bei der Umsetzung helfen. Anthropics Verteidigung: Klassifikatoren, die biowaffen-relevante Outputs blockieren. Diese erhöhen die Serverkosten um fast fünf Prozent – ein Wettbewerbsnachteil, den nicht alle Konkurrenten akzeptieren. Amodei fordert deshalb gesetzliche Transparenzpflichten und internationale Abkommen, selbst mit geopolitischen Gegnern.

Die totalitäre Versuchung

Die dritte Gefahr: Machtmissbrauch durch Staaten und Konzerne. Amodei malt ein dystopisches Szenario aus autonomen Drohnenschwärmen, totaler Überwachung und KI-gestützter Propaganda. China kombiniere bereits KI-Fähigkeiten, autoritäre Strukturen und High-Tech-Überwachung – die perfekte Grundlage für einen KI-gestützten Totalitarismus. Vollautonome Waffensysteme könnten Millionen oder Milliarden Drohnen koordinieren, die sowohl feindliche Armeen besiegen als auch Dissidenten im Inland verfolgen.

KI-Überwachung könnte jede elektronische Kommunikation weltweit kompromittieren und analysieren – ein Panoptikum, das selbst die Überwachung der kommunistischen Partei in China in den Schatten stellt. Personalisierte KI-Agenten, die Nutzer über Jahre kennenlernen, könnten Menschen in praktisch jede gewünschte Ideologie manipulieren.

Amodeis Strategie: Demokratien mit KI bewaffnen, aber rote Linien ziehen. Massenüberwachung und Propaganda im Inland seien illegitim, autonome Waffen und strategische KI-Beratung hingegen notwendig – aber nur unter strikter Kontrolle. Er fordert ein internationales Tabu gegen KI-gestützte Totalitarismus-Tools und argumentiert, Autokratie sei im KI-Zeitalter schlicht nicht mehr akzeptabel.

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren