Ein Professor für Pflanzenwissenschaften an der Universität zu Köln nutzte ChatGPT Plus im Berufsalltag so selbstverständlich wie E-Mail und Textverarbeitung: für Kursbeschreibungen, Forschungsanträge, Vorlesungen, Prüfungen und Korrekturen.
Über zwei Jahre entstanden in seinem Account komplexe Projektordner mit sorgfältig aufgebauten Gesprächsverläufen. Das KI-Tool diente als kreatives Notizbuch, Archiv und Strukturhilfe zugleich – jederzeit verfügbar, schnell und komfortabel. Wie bei vielen Digitalwerkzeugen rückte dabei ein Risiko in den Hintergrund: Was passiert, wenn all diese Inhalte auf einen Schlag verschwinden?
Professor aus Köln verliert komplettes Chat-Archiv
Der Hochschullehrer deaktivierte testweise die Option zur Datenfreigabe in den Kontoeinstellungen. In diesem Moment wurden sämtliche Chats und Projektordner gelöscht – dauerhaft, ohne Warnfenster, ohne Zwischenschritt. „Zwei Jahre sorgfältig strukturierter akademischer Arbeit waren verschwunden“, berichtet er laut nature.com.
Es gab keinen Papierkorb, keine Rückgängig-Funktion, nur eine leere Oberfläche. Einige Materialien lagen noch als Teildownloads vor, doch große Teile seines digitalen Gerüsts für Forschung und Lehre blieben unauffindbar. Der Versuch, mit verschiedenen Geräten, Apps und Browsern auf alte Inhalte zuzugreifen, blieb erfolglos.
20-Euro-Abo, aber keine Wiederherstellung möglich
Der Wissenschaftler nutzte ein kostenpflichtiges Abonnement für 20 Euro im Monat und ging davon aus, dass grundlegende Schutzmechanismen existieren: etwa eine gut sichtbare Warnung vor endgültiger Löschung, ein zeitlich begrenzter Wiederherstellungszeitraum oder Backup-Lösungen. Stattdessen erhielt er nach mehreren Support-Anfragen nur die Auskunft, dass sämtliche Daten endgültig entfernt seien und nicht wiederhergestellt werden könnten.
Zuvor hatte ein automatisierter Support-Bot geantwortet, erst nach wiederholtem Nachhaken meldete sich eine reale Ansprechperson – mit derselben Botschaft: kein Zugriff, keine Sicherung, keine Kopie auf internen Systemen.
„Privacy by design“ sorgt für vollständige Löschung
Das Unternehmen begründete das Vorgehen mit „Privacy by design“: Wer die Datennutzung deaktiviere, löse damit eine vollständige Entfernung aller gespeicherten Inhalte aus. Was als konsequenter Schutz der Privatsphäre gedacht ist, kann für Nutzer zum Bumerang werden. Denn weder existiert eine Schattenkopie noch ein Notfall-Backup, sobald die entsprechende Einstellung geändert wird.
Für Verbraucherinnen und Verbraucher bedeutet das: Datenschutzoptionen in KI-Diensten können nicht nur die Verwertung persönlicher Informationen begrenzen, sondern im Extremfall das gesamte Arbeitsarchiv vernichten – ohne Zwischenschritt und ohne Möglichkeit, die Entscheidung zu revidieren.
Was Nutzer jetzt bei KI-Tools unbedingt sichern sollten
Für den Alltag mit künstlicher Intelligenz ergeben sich klare Vorsichtsmaßnahmen. Inhalte aus wichtigen Chats sollten regelmäßig lokal gespeichert oder in unabhängigen Cloud-Diensten abgelegt werden, statt sich allein auf das integrierte Verlaufssystem zu verlassen. Wer mit Projektordnern, Skripten, Bewerbungen oder wissenschaftlichen Texten arbeitet, sollte feste Backup-Routinen einführen und besonders kritische Passagen parallel in klassischen Textdokumenten pflegen.
Zudem lohnt ein genauer Blick in die Kontoeinstellungen: Welche Optionen führen zur Datenlöschung, welche regeln lediglich das Training der Modelle? Der Fall des Kölner Professors, zeigt, dass Komfort bei KI-Angeboten schnell trügerisch wird, wenn die eigene digitale Arbeitsbasis nicht doppelt abgesichert ist.