Innovation & Future Streit um Sicherheit: Deutscher Top-Manager kündigt Sam Altman seine Dienste

Streit um Sicherheit: Deutscher Top-Manager kündigt Sam Altman seine Dienste

Jan Leike war bis eben Sicherheitschef bei ChatGPT. Er war dafür verantwortlich, dass die Künstliche Intelligenz nicht außer Rand und Band gerät. Weil er für sein Projekt nicht genügend Rechenleistung im Konzern zugeteilt bekommen hat, schmeißt er jetzt hin – mit warnenden Worten.

Schmutzige Wäsche wäscht man normalerweise zu Hause. Dies gilt jedoch nicht für OpenAI, das Unternehmen aus San Francisco, das ChatGPT entwickelt hat und damit der weltweit einflussreichste Konzern im Bereich der generativen künstlichen Intelligenz geworden ist.

Nach dem Rücktritt des ehemaligen wissenschaftlichen Direktors Ilya Sutskever – wegen offensichtlicher Unvereinbarkeit seiner Ideen mit denen von ChatGPT-Chef Sam Altman – verlässt jetzt auch der einzige deutsche Top-Manager das Unternehmen im Streit: Jan Leike. Die Personalien sind heikel: Sutskever und Leike waren nämlich die beiden Leiter des Projekts „Superalignment“ von OpenAI, das im Juli 2023 ins Leben gerufen wurde, um hochentwickelte künstliche Intelligenzsysteme sicher mit menschlichen Zielen und Werten in Einklang zu bringen. Das Forscherteam sollte effiziente Methoden entwickeln, um „künstliche Intelligenzsysteme, die viel intelligenter sind als Menschen“, unter Kontrolle zu halten. Zu diesem Zweck, so heißt es in dem Dokument, das den Zweck von „Superalignment“ beschreibt, plante OpenAI, 20 Prozent seiner verfügbaren Rechenleistung einzusetzen. Alles sa anfangs danach aus, dass Altman hier eine Initiative gestartet hatte, um verantwortlich mit der Technologie umzugehen. Dann aber lief nichts nach Plan.

„Ich war Leiter von OpenAIs Superalignment und diesen Job aufzugeben, ist eines der schwersten Dinge, die ich je getan habe“, schreibt Jan Leike in X, „denn wir müssen dringend herausfinden, wie wir KI-Systeme, die schlauer sind als wir, steuern und kontrollieren können. Ich bin zu OpenAI gekommen, weil ich dachte, es sei der beste Ort der Welt, um diese Art von Forschung zu betreiben“,  er hinzu, „Allerdings bin ich seit einiger Zeit mit den Prioritäten, die die Unternehmensführung setzt, nicht einverstanden. Ich bin der Meinung, dass ein Großteil unseres Könnens für Sicherheit, Überwachung, optimale Ausrichtung und die sozialen Auswirkungen der nächsten Generation von KI-Modellen verwendet werden sollte. Aber in den letzten Monaten musste mein Team darum kämpfen, die für diese wichtige Forschung benötigte Rechenleistung zu erhalten.“ Er schließt: „OpenAI hat eine Verantwortung gegenüber der Menschheit“, sagte Leike weiter, „aber in den letzten Jahren sind Kultur und Prozesse in Bezug auf Sicherheit hinter glänzenden Produkten zurückgeblieben.“

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren

Die Kunst im Wandel – Gedanken zu konventioneller gegenüber und NFT-Kunst Innovation & Future
Die Kunst im Wandel – Gedanken zu konventioneller gegenüber und NFT-Kunst
KI-Revolution: Jobkiller oder Produktivitätswunder? IWF warnt Innovation & Future
KI-Revolution: Jobkiller oder Produktivitätswunder? IWF warnt
Wingcopter will Japan beliefern Innovation & Future
Wingcopter will Japan beliefern
Milliardeninvestitionen von Techriesen wie Microsoft und Amazon in Frankreich Innovation & Future
Milliardeninvestitionen von Techriesen wie Microsoft und Amazon in Frankreich
5 Trends der Arbeitswelt: Das sind die Jobs der Zukunft  Innovation & Future
5 Trends der Arbeitswelt: Das sind die Jobs der Zukunft