Innovation & Future Streit um Sicherheit: Deutscher Top-Manager kündigt Sam Altman seine Dienste

Streit um Sicherheit: Deutscher Top-Manager kündigt Sam Altman seine Dienste

Jan Leike war bis eben Sicherheitschef bei ChatGPT. Er war dafür verantwortlich, dass die Künstliche Intelligenz nicht außer Rand und Band gerät. Weil er für sein Projekt nicht genügend Rechenleistung im Konzern zugeteilt bekommen hat, schmeißt er jetzt hin – mit warnenden Worten.

Schmutzige Wäsche wäscht man normalerweise zu Hause. Dies gilt jedoch nicht für OpenAI, das Unternehmen aus San Francisco, das ChatGPT entwickelt hat und damit der weltweit einflussreichste Konzern im Bereich der generativen künstlichen Intelligenz geworden ist.

Nach dem Rücktritt des ehemaligen wissenschaftlichen Direktors Ilya Sutskever – wegen offensichtlicher Unvereinbarkeit seiner Ideen mit denen von ChatGPT-Chef Sam Altman – verlässt jetzt auch der einzige deutsche Top-Manager das Unternehmen im Streit: Jan Leike. Die Personalien sind heikel: Sutskever und Leike waren nämlich die beiden Leiter des Projekts „Superalignment“ von OpenAI, das im Juli 2023 ins Leben gerufen wurde, um hochentwickelte künstliche Intelligenzsysteme sicher mit menschlichen Zielen und Werten in Einklang zu bringen. Das Forscherteam sollte effiziente Methoden entwickeln, um „künstliche Intelligenzsysteme, die viel intelligenter sind als Menschen“, unter Kontrolle zu halten. Zu diesem Zweck, so heißt es in dem Dokument, das den Zweck von „Superalignment“ beschreibt, plante OpenAI, 20 Prozent seiner verfügbaren Rechenleistung einzusetzen. Alles sa anfangs danach aus, dass Altman hier eine Initiative gestartet hatte, um verantwortlich mit der Technologie umzugehen. Dann aber lief nichts nach Plan.

„Ich war Leiter von OpenAIs Superalignment und diesen Job aufzugeben, ist eines der schwersten Dinge, die ich je getan habe“, schreibt Jan Leike in X, „denn wir müssen dringend herausfinden, wie wir KI-Systeme, die schlauer sind als wir, steuern und kontrollieren können. Ich bin zu OpenAI gekommen, weil ich dachte, es sei der beste Ort der Welt, um diese Art von Forschung zu betreiben“,  er hinzu, „Allerdings bin ich seit einiger Zeit mit den Prioritäten, die die Unternehmensführung setzt, nicht einverstanden. Ich bin der Meinung, dass ein Großteil unseres Könnens für Sicherheit, Überwachung, optimale Ausrichtung und die sozialen Auswirkungen der nächsten Generation von KI-Modellen verwendet werden sollte. Aber in den letzten Monaten musste mein Team darum kämpfen, die für diese wichtige Forschung benötigte Rechenleistung zu erhalten.“ Er schließt: „OpenAI hat eine Verantwortung gegenüber der Menschheit“, sagte Leike weiter, „aber in den letzten Jahren sind Kultur und Prozesse in Bezug auf Sicherheit hinter glänzenden Produkten zurückgeblieben.“

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren

Diese 14 deutschen Startups werden die nächsten Einhörner Innovation & Future
Diese 14 deutschen Startups werden die nächsten Einhörner
AfD-Geheimtreffen: Proteste gegen Rechtsextremismus in Berlin und Potsdam Innovation & Future
AfD-Geheimtreffen: Proteste gegen Rechtsextremismus in Berlin und Potsdam
Gemeinsam Magie verbreiten – Kreatives Miteinander in der Weihnachtszeit im Job Innovation & Future
Gemeinsam Magie verbreiten – Kreatives Miteinander in der Weihnachtszeit im Job
Frauen in die Pflege, Männer ins Lager – Chatbot der Arbeitsagentur gibt kontroverse Jobempfehlungen Innovation & Future
Frauen in die Pflege, Männer ins Lager – Chatbot der Arbeitsagentur gibt kontroverse Jobempfehlungen
Die 40-Stunden-Woche war gestern: Arbeiten wir bald 70 Stunden pro Woche? Innovation & Future
Die 40-Stunden-Woche war gestern: Arbeiten wir bald 70 Stunden pro Woche?