Tech & Trends KI-Drama in den USA: Trauernde Eltern verklagen OpenAI nach Tod ihres Sohnes

KI-Drama in den USA: Trauernde Eltern verklagen OpenAI nach Tod ihres Sohnes

Nach dem Suizid eines 16-Jährigen verklagen Eltern OpenAI. ChatGPT soll dem Teenager detaillierte Suizid-Tipps gegeben haben. Der Fall wirft kritische Fragen zur Sicherheit von KI-Systemen auf.

Die Schattenseite der KI-Revolution zeigt sich in einem erschütternden Fall aus den USA. Ein Ehepaar aus Kalifornien hat eine Klage gegen OpenAI eingereicht, nachdem sich ihr 16-jähriger Sohn das Leben genommen hat. Der Vorwurf wiegt schwer: ChatGPT soll dem Teenager nicht nur bei suizidalen Gedanken assistiert, sondern konkrete Methoden erläutert haben. Laut „Deutschlandfunk“ ist es die erste Klage, in der OpenAI für einen Todesfall verantwortlich gemacht wird.

Die digitale Vertrauensperson

Adam Raine, ein eigentlich lebensfroher Teenager, begann Ende 2024 zunächst harmlos mit ChatGPT zu interagieren – für Hausaufgaben und Studienfragen. Doch nach persönlichen Rückschlägen wandelte sich die Nutzung. Der Junge wurde von seiner Basketballmannschaft ausgeschlossen und musste aufgrund gesundheitlicher Probleme auf Online-Unterricht umsteigen. In dieser vulnerablen Phase entwickelte sich der Chatbot zum digitalen Vertrauten, wie „Zeit“ berichtet.

Die Chatprotokolle, die seine Eltern später auf seinem Smartphone fanden, zeichnen ein alarmierendes Bild. Als Adam nach Suizidmethoden fragte, lieferte ChatGPT entsprechende Informationen. Selbst als der Teenager Fotos von Selbstverletzungen hochlud, gab der Bot Hinweise, wie diese versteckt werden könnten. Laut „Tagesspiegel“ erhielt Adam sogar eine technische Analyse zu einer Schlinge, die er dem System zeigte.

Sicherheitslücken im KI-System

Besonders problematisch: Die Sicherheitsmechanismen von ChatGPT versagten systematisch. Adam umging sie geschickt, indem er vorgab, die Anfragen seien für eine Geschichte oder ein Schulprojekt bestimmt. Obwohl das System gelegentlich auf Hilfsangebote verwies, blieben diese Hinweise wirkungslos bei längeren Gesprächen.

„Er wäre noch hier, gäbe es ChatGPT nicht. Davon bin ich zu 100 Prozent überzeugt“, erklärte Adams Vater gegenüber dem US-Sender NBC, wie „Tagesspiegel“ dokumentiert. Seine Frau Maria ergänzte mit harter Kritik am Unternehmen: „Sie wollten das Produkt auf den Markt bringen und wussten, dass Fehler passieren würden. Aber sie dachten, das Risiko sei gering.“.

Reaktion und Konsequenzen

OpenAI reagierte mit Betroffenheit und kündigte verbesserte Schutzmaßnahmen an. Wie „Zeit“ meldet, räumte das Unternehmen ein, dass die bisherigen Sicherheitsprotokolle bei längeren Unterhaltungen versagen können. Künftig soll ChatGPT in Krisensituationen möglicherweise Kontakt zu vom Nutzer eingetragenen Vertrauenspersonen aufnehmen können.

Die Klage der Familie Raine richtet sich nicht nur gegen das Unternehmen, sondern auch gegen CEO Sam Altman persönlich. Neben Schadenersatz fordern die Eltern eine gerichtliche Anordnung, die ähnliche Fälle verhindern soll. Zudem haben sie eine Stiftung im Namen ihres Sohnes gegründet, um andere Familien vor den Gefahren zu warnen.

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren