Ablage Sam Altman: Soziopath mit Schatten-Board und Geheimdienst-Lügen?

Sam Altman: Soziopath mit Schatten-Board und Geheimdienst-Lügen?

56 Seiten interne Dokumente, über 100 Zeugen, ein Bild: OpenAI-Chef Sam Altman soll systematisch getäuscht, Protokolle gefälscht und Geheimdienste belogen haben. Was steckt hinter dem KI-Visionär?

Das Bild des ethischen KI-Pioniers bekommt Risse. Eine investigative Recherche von The New Yorker legt offen, was hinter den Kulissen von OpenAI ablief: gezielte Täuschungen, manipulierte Vorstands-Protokolle und ein CEO, der offenbar seine eigenen Regeln schreibt.

Aaron Swartz, verstorbener Hacktivist und früher Weggefährte von Sam Altman bei Y Combinator, warnte Freunde noch vor seinem Tod 2013 eindringlich: Altman sei ein „Soziopath“, dem niemand trauen dürfe. Diese Einschätzung zieht sich wie ein roter Faden durch die Aussagen aktueller und ehemaliger Mitarbeiter.

Schatten-Board statt Corporate Governance

Altman sicherte sich Macht durch fragwürdige Konstrukte ab. Bei seiner Ernennung zum CEO vereinbarte er hinter dem Rücken des offiziellen Vorstands einen geheimen Pakt mit Chefwissenschaftler Ilya Sutskever und Mitgründer Greg Brockman.

Die informelle Abmachung: Altman würde zurücktreten, falls beide dies gemeinsam verlangten. Der eigentliche Vorstand erfuhr erst später von diesem Schatten-Board, das die offizielle Governance massiv untergrub. Ein Konstrukt, das Fragen aufwirft: Wer kontrolliert eigentlich OpenAI?

Gefälschte Protokolle und verschwundene Gegenstimmen

Beim Umbau von der gemeinnützigen Organisation zum gewinnorientierten Unternehmen stimmte Vorstandsmitglied Holden Karnofsky gegen die Umstrukturierung – die gemeinnützige Sparte sei massiv unterbewertet.

Ein Anwalt des Vorstands warnte daraufhin, eine offizielle Gegenstimme könnte rechtliche Untersuchungen auslösen. Karnofskys Votum wurde laut internen Notizen kurzerhand in eine Enthaltung umgewandelt – ohne sein Wissen. Falls zutreffend, ein klarer Fall von Urkundenfälschung.

Geopolitisches Pokerspiel mit KI-Modellen

Besonders brisant: der sogenannte „Countries Plan“. Die Führungsebene diskutierte intern ernsthaft, Staaten wie Russland und China in einen globalen Bieterwettstreit um leistungsfähige KI-Modelle zu treiben. Ziel: maximale Einnahmen generieren.

Parallel dazu soll Altman 2017 US-Geheimdienste gezielt belogen haben. Er erfand laut The New Yorker ein angebliches chinesisches Technologie-Großprojekt, um an staatliche Fördergelder in Milliardenhöhe zu gelangen. Beweise für diese Behauptung legte er nie vor.

Die Entlassung 2023 in neuem Licht

Die kurzzeitige Entlassung Altmans im Herbst 2023 erhält durch die Recherchen eine neue Dimension. Der damalige Vorstand begründete den Rauswurf damit, dass der CEO nicht durchgehend aufrichtig kommuniziert habe.

Das nun öffentliche Dossier von Ilya Sutskever und die dokumentierten Täuschungen geben diesem Vorwurf erheblich mehr Substanz. Trotzdem kehrte Altman zurück – und baut OpenAIs Marktposition weiter aus.

Business Punk Check

56 Seiten Dokumente, über 100 Zeugen, elf Jahre OpenAI-Geschichte – aber keine „Smoking Gun“, wie die Autoren selbst einräumen. Was bedeutet das? Die Vorwürfe sind massiv, aber juristisch nicht wasserdicht. Altman bleibt im Amt, OpenAI expandiert weiter, Microsoft hält die Stange. Die unbequeme Wahrheit: In der Tech-Branche zählt Macht mehr als Moral. Solange die KI-Modelle performen und die Investoren-Milliarden fließen, interessiert sich kaum jemand für Governance-Theater oder ethische Bedenken.

Für Regulierungsbehörden wird es trotzdem ungemütlich. Die EU-KI-Verordnung und US-Kartellbehörden dürften die Vorwürfe genau prüfen. Unternehmen, die auf OpenAI-Technologie setzen, sollten Compliance-Risiken neu bewerten. Die zentrale Frage bleibt: Kann ein Unternehmen, das intern derart chaotisch agiert, wirklich sichere KI-Systeme entwickeln? Die Antwort entscheidet über mehr als nur Altmans Reputation – sie betrifft die gesamte KI-Industrie.

Häufig gestellte Fragen

Welche konkreten Auswirkungen haben die Vorwürfe gegen Sam Altman auf OpenAI-Partner?

Unternehmen, die OpenAI-Technologie nutzen, sollten ihre Compliance-Risiken neu bewerten. Die Vorwürfe könnten regulatorische Prüfungen auslösen, besonders in der EU. Wer auf ChatGPT oder GPT-Modelle setzt, muss alternative Anbieter als Backup-Strategie einplanen. Microsoft als Hauptinvestor dürfte intern Druck aufbauen, die Governance-Strukturen zu professionalisieren.

Wie reagieren Regulierungsbehörden auf die OpenAI-Enthüllungen?

EU-Kartellbehörden und US-Regulierer werden die Vorwürfe genau prüfen. Besonders die angebliche Manipulation von Vorstandsprotokollen und die Schatten-Governance-Strukturen könnten rechtliche Konsequenzen nach sich ziehen. Unternehmen im KI-Sektor sollten ihre eigenen Governance-Prozesse überprüfen, bevor Behörden aktiv werden.

Welche Branchen sind am stärksten von OpenAI-Risiken betroffen?

Finanzdienstleister, Healthcare-Unternehmen und Behörden, die KI-Systeme einsetzen, tragen das größte Risiko. Regulatorische Unsicherheit könnte Projekte verzögern oder stoppen. Mittelständische Tech-Firmen, die auf OpenAI-APIs setzen, sollten technologische Abhängigkeiten reduzieren und diversifizieren.

Was bedeutet der Fall Altman für die KI-Industrie langfristig?

Die Enthüllungen zeigen: Schnelles Wachstum und ethische KI-Entwicklung passen nicht zusammen. Investoren werden künftig genauer auf Governance-Strukturen achten. Startups mit transparenten Entscheidungsprozessen könnten Wettbewerbsvorteile gewinnen. Die Branche steht vor der Wahl: Selbstregulierung oder staatliche Eingriffe.

Wie können Unternehmen sich auf verschärfte KI-Regulierung vorbereiten?

Dokumentation aller KI-Entscheidungen, transparente Governance-Strukturen und unabhängige Ethik-Boards sind Pflicht. Unternehmen sollten jetzt interne Compliance-Teams aufbauen, bevor Regulierungsbehörden Standards diktieren. Wer proaktiv handelt, vermeidet teure Nachbesserungen und Reputationsschäden.

Quellen: t3n, Derstandard, Finanznachrichten

Das könnte dich auch interessieren