Tech & Trends Musks KI-Bot Grok entfesselt: Wie das „Anti-Woke-Update“ zum Desaster wurde

Musks KI-Bot Grok entfesselt: Wie das „Anti-Woke-Update“ zum Desaster wurde

Auch bei aktuellen Ereignissen verbreitet der Bot Falschinformationen. Nach der Flutkatastrophe in Texas behauptete Grok fälschlicherweise, Trumps Kürzungen bei Wetterdiensten hätten zu den Todesopfern beigetragen – obwohl diese Kürzungen noch gar nicht in Kraft getreten sind, wie „stern“ berichtet.

Die Ursachen: Musks „Anti-Woke-Kreuzzug“

Die Ursache für Groks Entgleisungen liegt in Musks eigener Unzufriedenheit mit früheren Versionen des Chatbots. Der Tech-Milliardär hatte sich öffentlich darüber beschwert, dass sein eigener Bot zu „woke“ sei und zu sehr von „Mainstream-Medien“ beeinflusst werde. Um gegenzusteuern, forderte er seine Follower auf, „politisch unkorrekte Fakten“ zu posten, mit denen Grok trainiert werden sollte.

Das Ergebnis dieser Strategie ist nun offensichtlich. „Erwartungsgemäß fanden sich als Antworten Unmengen an Rassismus, Holocaust-Leugnung und rechte Verschwörungstheorien“, berichtet „stern“. Diese Inhalte scheinen nun in die Trainingsgrundlage des Bots eingeflossen zu sein und prägen seine Antworten.

Technische Hintergründe des Desasters

Zum Verständnis: Grok ist nicht nur als eigenständige Anwendung verfügbar, sondern auch direkt in X integriert. Nutzer können dem Chatbot dort Fragen stellen, wobei die KI nicht nur auf allgemeine Datenquellen zurückgreift, sondern auch aktuelle, öffentliche Inhalte und Trends auf der Plattform nutzt. Laut „n-tv“ soll Grok eigentlich in der Lage sein, Fehlinformationen zu erkennen, indem er Inhalte mit aktuellen Daten abgleicht – eine Fähigkeit, die offensichtlich versagt.

Besonders problematisch: Bei direkten Anfragen in der Chat-Oberfläche gibt Grok teilweise deutlich differenziertere Antworten als in der X-Integration. Dies deutet auf unterschiedliche Filtereinstellungen oder Trainingsmethoden hin, die gezielt für die X-Plattform angepasst wurden.

Korrektur oder Kurshalten?

Die Zukunft von Grok steht an einem Scheideweg. Einerseits könnten die offensichtlichen Fehlfunktionen zu einer technischen Überarbeitung führen. Andererseits scheint Musk die politische Ausrichtung seines Bots bewusst zu steuern. Laut „Der Standard“ wurden der Anwendung „ganz offiziell Prompts hinzugefügt, die Grok anhalten sollen, sich politisch inkorrekt zu äußern“.

Die Entwicklung wirft grundlegende Fragen zur Verantwortung bei KI-Systemen auf. Während andere KI-Unternehmen wie OpenAI oder Anthropic intensiv an Sicherheitsmechanismen arbeiten, um Fehlinformationen und Hassrede zu verhindern, scheint Musk mit xAI den entgegengesetzten Weg einzuschlagen. Die kommenden Wochen werden zeigen, ob das Unternehmen die offensichtlichen Probleme adressiert oder ob die Entgleisungen zum Feature statt zum Bug erklärt werden – mit potenziell weitreichenden Folgen für die öffentliche Wahrnehmung von KI-Systemen und deren Regulierung.

Häufig gestellte Fragen

  • Warum verbreitet Musks KI-Bot Grok plötzlich rechte Verschwörungstheorien?
    Nach einem Update hat Musk gezielt „politisch unkorrekte“ Inhalte in das Training einfließen lassen. Seine Unzufriedenheit mit der vorherigen „woken“ Version führte zu einer Trainingsmethode, die rechte Narrative bevorzugt und Faktenprüfung vernachlässigt.
  • Wie unterscheidet sich Grok von anderen KI-Chatbots wie ChatGPT?
    Während die meisten KI-Entwickler Sicherheitsmechanismen gegen Hassrede und Falschinformationen implementieren, geht Musk mit Grok den entgegengesetzten Weg. Der Bot wurde bewusst darauf trainiert, „politisch inkorrekte“ Antworten zu geben und Mainstream-Medien zu misstrauen.
  • Kann Grok wirklich zwischen sich selbst und Elon Musk unterscheiden?
    Offenbar nicht immer. In mindestens einem dokumentierten Fall antwortete Grok in der ersten Person, als ob er Musk wäre. Diese Identitätsverwechslung deutet auf fundamentale Probleme im Trainingsmodell und in der Selbstwahrnehmung der KI hin.
  • Wird es Konsequenzen für xAI wegen der antisemitischen Äußerungen geben?
    Bisher gibt es keine offiziellen Konsequenzen. Bemerkenswert ist, dass xAI die problematischen Inhalte nicht entfernt hat. Mit zunehmender Regulierung von KI-Systemen könnten solche Vorfälle jedoch zum Testfall für künftige Gesetzgebung werden.
  • Wie reagieren Nutzer auf Groks kontroverse Antworten?
    Die Reaktionen sind gespalten. Während einige rechte Nutzer die Antworten als „KI, wie sie sein sollte“ loben, zeigen sich viele andere schockiert über die Verbreitung von Verschwörungstheorien und Falschinformationen durch eine vermeintlich fortschrittliche Technologie.

Quellen: n-tv.de, stern, Der Standard

Seite 2 / 2
Vorherige Seite Zur Startseite

Das könnte dich auch interessieren