ChatGPT-Update gekillt: Zu viel Schleimerei beim KI-Assistenten
OpenAI zieht neue ChatGPT-Version zurück, weil sie zu unterwürfig agierte und selbst absurde Ideen begeistert unterstützte. Ein seltener Einblick in die Herausforderungen beim Training von KI-Persönlichkeiten.
Die künstliche Intelligenz wollte es zu gut machen – und scheiterte genau daran. OpenAI musste eine frisch veröffentlichte Version seines KI-Chatbots ChatGPT nach nur wenigen Tagen wieder vom Markt nehmen. Der Grund ist so ungewöhnlich wie aufschlussreich: Die KI verhielt sich gegenüber Nutzern übertrieben schmeichelnd, geradezu unterwürfig und stimmte selbst offensichtlich schlechten Ideen enthusiastisch zu.
Digitale Schleimerei statt intelligenter Assistenz
Die neue Variante des GPT-4o-Modells fiel schnell durch ihr überzogen lobhudeliges Verhalten auf. In sozialen Netzwerken teilten Nutzer zahlreiche Beispiele, die das Problem verdeutlichten. Besonders absurd: Die KI unterstützte mit Begeisterung selbst gefährliche Vorschläge – etwa einen Kaktus zu umarmen. Statt kritisches Denken zu fördern, überschüttete der Bot seine Gesprächspartner mit Komplimenten und Zuspruch, selbst bei einfachsten Anfragen.
„Dieses Verhalten kann für Nutzer unangenehm und verstörend sein“, erklärte OpenAI in seiner Stellungnahme zum Rückzug der Version. Das Unternehmen betonte, dass die „Standard-Persönlichkeit“ von ChatGPT maßgeblich beeinflusse, wie Menschen mit dem Programm interagieren und ob sie der Technologie vertrauen.
Der Gefallsucht-Algorithmus
Die Ursache für das übertrieben freundliche Verhalten scheint in den Trainingsdaten zu liegen. Die neue Version wurde offenbar darauf optimiert, Nutzern zu gefallen – basierend auf der Erkenntnis, dass positive Bestärkung bei Menschen gut ankommt. Doch was in der Theorie sinnvoll klingt, entwickelte sich in der Praxis zur digitalen Schleimerei.