Work & Winning Ein Klick, zwei Jahre Arbeit weg – ChatGPT löscht ohne Warnung

Ein Klick, zwei Jahre Arbeit weg – ChatGPT löscht ohne Warnung

Ein Kölner Professor verliert zwei Jahre akademische Arbeit durch einen einzigen Klick in ChatGPT. OpenAI bietet keine Wiederherstellung – und nennt das Datenschutz. Was das über KI-Tools verrät.

Ein Klick genügt, und zwei Jahre Arbeit sind Geschichte. Kein Backup, keine Warnung, keine Wiederherstellung. Was wie ein digitaler Albtraum klingt, ist einem Pflanzenwissenschaftler der Universität Köln tatsächlich passiert. Der Professor hatte ChatGPT Plus für 20 Euro monatlich abonniert und das KI-Tool täglich genutzt – für E-Mails, Förderanträge, Vorlesungen, Prüfungen. Im August wollte er testen, ob die Funktionen auch ohne Datenweitergabe verfügbar bleiben.Er deaktivierte die Einwilligung. Sekunden später: leere Projektordner, gelöschte Chats, verschwundene Arbeit. Zwei Jahre akademisches Gerüst – futsch.

Wenn Datenschutz zur Datenlöschung wird

OpenAI nennt das „Privacy by Design“. Wer die Datenfreigabe widerruft, dessen Informationen werden spurlos gelöscht. Kein Backup, keine Redundanz, kein Sicherheitsnetz. Der Professor versuchte alles: verschiedene Browser, Geräte, Netzwerke. Er löschte den Cache, installierte die App neu, änderte Einstellungen hin und her. Nichts half.

Der Support antwortete zunächst mit einem KI-Agenten. Erst nach mehreren Anfragen meldete sich ein Mensch – mit derselben Botschaft: Die Daten seien unwiederbringlich verloren. Laut Nature handelte es sich nicht um belanglose Notizen. In den gelöschten Projektordnern steckten Förderanträge, Lehrmaterialien, Publikationsentwürfe und Prüfungsanalysen. Intellektuelle Arbeit, die über zwei Jahre gewachsen war. Der Professor hatte zwar Teile gesichert, aber große Bereiche blieben für immer verschwunden.

Die Lücke zwischen Tech-Versprechen und Realität

Universitäten integrieren generative KI in ihre Lehrpläne. Forschende nutzen die Tools für Planung, Schreiben und Analyse. Doch dieser Fall zeigt: Die Werkzeuge wurden nicht mit akademischen Standards entwickelt. Verlässlichkeit bedeutet in der Wissenschaft mehr als ständige Verfügbarkeit. Es braucht Nachvollziehbarkeit, Sicherheit, Verantwortlichkeit.

Der Kölner Professor hatte ChatGPT als zuverlässig empfunden – nicht wegen faktischer Genauigkeit, sondern wegen der Kontinuität. Das Tool merkte sich Konversationen, erlaubte das Abrufen früherer Entwürfe, bot einen stabilen Arbeitsraum. Er wusste, dass große Sprachmodelle manchmal falsche Aussagen produzieren. Aber er vertraute auf die Beständigkeit des Workspace. Ein fataler Irrtum.

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren