KI-Chatbots wie ChatGPT, Gemini oder Claude haben sich in kurzer Zeit als digitale Helfer etabliert – vom Formulieren von E-Mails bis zur Programmierunterstützung. Der Google-Softwareentwickler Harsh Varshney nutzt solche Tools nach eigenen Angaben täglich für Recherchen, Notizen und Coding-Aufgaben, war zuvor im Datenschutz-Team und arbeitet heute an der KI-Sicherheit in Chrome. Gerade deshalb warnt er davor, leichtfertig vertrauliche Informationen einzugeben. KI-Modelle generieren Antworten auf Basis großer Datenmengen, wodurch private Angaben im Extremfall bei späteren Ausgaben wieder auftauchen können, berichtet businessinsider.de. Damit geraten wirtschaftliche Interessen der Anbieter und Schutzbedürfnisse von Verbrauchern in Konflikt.

32 Prozent Jugendliche können sich KI-Freundschaft vorstellen

Parallel zu Varshneys Warnungen wächst die emotionale Bindung vieler Nutzer an digitale Assistenten. Tech-Manager wie OpenAI-Chef Sam Altman oder Meta-Chef Mark Zuckerberg entwerfen Szenarien, in denen KI für viele Menschen Berater oder Bezugsperson wird. Laut einer Umfrage der Organisation Male Allies UK in Großbritannien können sich 32 Prozent der 11- bis 15-Jährigen eine Freundschaft mit einer künstlichen Intelligenz vorstellen, weitere 53 Prozent bevorzugen die Online-Welt gegenüber der Realität. Altman beschreibt, dass junge Erwachsene „keine wichtigen Lebensentscheidungen mehr treffen, ohne vorher ChatGPT um Rat zu fragen“. Für Verbraucher entsteht damit eine Grauzone: Je persönlicher die Gespräche, desto höher der Wert der Daten – sowohl für Trainingszwecke als auch für Kriminelle.

Google-Ingenieur: Chatbot wie eine offene Postkarte behandeln

Varshney rät laut dazu, öffentliche Chatbots grundsätzlich wie eine offen lesbare Postkarte zu betrachten. „Wenn ich eine Information nicht auf eine Postkarte schreiben würde, die jeder sehen könnte, würde ich sie auch nicht mit einem öffentlichen KI-Tool teilen“, sagt der 31-Jährige. Kreditkartenangaben, vollständige Adressen, Krankenhistorien, Sozialversicherungsnummern oder andere eindeutig zuordenbare persönliche Informationen sollten daher tabu sein. Je nach Dienst können Eingaben zur Modellverbesserung gespeichert werden; die Inhalte lassen sich im Nachhinein praktisch nicht mehr aus dem Trainingsbestand entfernen. Auch Firmengeheimnisse, noch nicht veröffentlichte Produkte oder Patententwürfe sollten nicht in frei zugängliche Chatbots eingegeben werden. Für berufliche Zwecke empfiehlt Varshney spezielle Unternehmensversionen, bei denen Gespräche nach Anbieteraussage nicht zum Training genutzt werden.

Studie: US-Chatbot-Anbieter speichern Daten häufig unbegrenzt

Die Risiken betreffen nicht nur einzelne Verbraucher, sondern auch betriebliche Abläufe. Eine Untersuchung des Stanford Institute for Human-Centered AI, über die it-boltwise.de berichtet, hat Datenschutzrichtlinien führender US-Anbieter analysiert. Ergebnis: Alle betrachteten Entwickler verwenden Nutzerdaten standardmäßig zur Verbesserung ihrer Modelle, einige speichern Informationen sogar ohne zeitliche Begrenzung. Besonders heikel ist dies bei personenbezogenen Angaben wie Namen, Anschriften oder Sozialversicherungsnummern, weil daraus Identitätsdiebstahl oder gezielte Phishing-Angriffe entstehen können. Für Unternehmen kommt die Gefahr hinzu, dass vertrauliche Quellcodes oder Strategiepapiere auf gemeinsam genutzter Infrastruktur landen. Experten empfehlen, Interaktionen mit KI-Chatbots als halböffentlichen Raum zu sehen und Eingaben konsequent auf das fachlich Nötige zu begrenzen.

Vier Praxis-Tipps: Verlauf löschen, Einstellungen prüfen, Enterprise nutzen

Für Verbraucher und Firmen lassen sich aus den Hinweisen konkrete Schutzstrategien ableiten. Varshney beschreibt laut businessinsider.de vier zentrale Gewohnheiten: Erstens sollten Nutzer regelmäßig den Chatverlauf löschen, um das Risiko bei Kontoübernahmen zu senken. Zweitens lohnt sich der Blick in die Datenschutzeinstellungen – viele Dienste bieten Optionen, die Nutzung der eigenen Eingaben für Trainingszwecke abzuschalten. Drittens kann der Einsatz temporärer oder „Inkognito“-Chats sinnvoll sein, wenn Eingaben nicht dauerhaft gespeichert werden sollen. Viertens rät der Google-Ingenieur, etablierte Anbieter und, im beruflichen Kontext, Enterprise-Lösungen zu wählen, etwa für das Korrekturlesen von Arbeits-E-Mails. Ergänzend verweist t3n.de darauf, dass bei der Einbindung externer Inhalte und Tracking-Dienste zusätzlich Cookie- und Consent-Einstellungen geprüft werden sollten, damit möglichst wenig Nutzungsverhalten mit sensiblen KI-Abfragen verknüpft wird.