KI-Chatbots wie ChatGPT, Copilot oder Gemini werden im Alltag und im Job längst zur Routine: Texte formulieren, Code prüfen, Verträge erklären. Was oft übersehen wird: Viele Dienste verwenden Eingaben, um ihre Modelle weiter zu trainieren – selbst wenn sie gratis angeboten werden, zahlen Nutzer am Ende mit Informationen über ihre Person. Laut t3n.de lassen sich daraus umfassende Profile bilden, die bei Datenlecks oder Hackerangriffen missbraucht werden können. Besonders problematisch sind Inhalte, mit denen Angreifer Identitäten nachbilden, Konten übernehmen oder berufliche Geheimnisse auslesen können.
Klarnamen und Ausweise: Identitätsdiebstahl leicht gemacht
Wer Name, vollständige Anschrift oder Telefonnummern in Chats tippt, liefert Bausteine für Social Engineering und Phishing. Angreifer können solche Angaben mit frei verfügbaren Informationen kombinieren und täuschend echte E‑Mails, Anrufe oder Fake‑Profile erstellen.
Noch heikler wird es bei Fotos von Ausweisen, Führerschein oder Reisepass: Diese Dokumente enthalten biometrische Merkmale und eindeutige Kennziffern, die sich für Kontoeröffnungen oder Betrugsversuche nutzen lassen.
Nach Angaben von t3n.de werden hochgeladene Dateien häufig langfristig gespeichert; eine Löschung ist für Verbraucher kaum nachprüfbar. Für allgemeine Fragen zu Reisedokumenten oder Behördenwegen eignen sich daher besser offizielle Portale oder Bank‑Websites.
Passwörter, Logins und Kontonummern: Risiko Darknet
Sicherheitsforscher Johann Rehberger weist gegenüber chip.de darauf hin, dass „Angreifer alle Chat-Daten einsehen könnten“, wenn Schwachstellen im System ausgenutzt werden. Bereits in der Vergangenheit wurden Fälle bekannt, bei denen Chat-Inhalte einschließlich sensibler Informationen sichtbar wurden. Passwörter, TANs, PINs oder Zugangsdaten zu E‑Mail, Cloud, VPN oder Social Media haben deshalb grundsätzlich nichts in Konversationen mit einer KI verloren.
Das gilt auch für IBAN, Kreditkartendaten, Wallet‑Adressen und Kundennummern. Gelangen solche Informationen in falsche Hände, landen sie oft im Darknet und werden dort weiterverkauft. Die Folge können unautorisierte Abbuchungen, Kontoübernahmen oder gesperrte Zugänge sein, deren Wiederherstellung zeitaufwendig und teuer werden kann.
Finanzdokumente und Krankengeschichte: intime Profile
Rechnungen, Kontoauszüge, Bescheide der Versicherung oder Bankbriefe enthalten detaillierte Informationen zur wirtschaftlichen Lage – von Gehalt und Vermögen bis hin zu Abos, Schulden oder Arbeitgeber. Werden diese Dokumente über Chatbots analysiert, entsteht ein exaktes Bild der finanziellen Verhältnisse, das Kriminelle zur Erpressung oder für maßgeschneiderte Betrugsmaschen nutzen können.
Ähnlich brisant sind Gesundheitsdaten: Diagnosen, Befunde, Medikationspläne oder psychotherapeutische Berichte zählen zu den sensibelsten Kategorien überhaupt. Laut t3n.de versuchen zwar viele Menschen, mit KI erste medizinische Einschätzungen zu bekommen, doch die dadurch entstehenden Datensätze wären im Ernstfall extrem belastend. Für medizinische Fragen bleiben Ärztinnen und Ärzte sowie offizielle Beratungsstellen die sicherere Wahl.
Firmengeheimnisse und illegale Fragen: rechtliche Folgen
Im beruflichen Umfeld sorgt die Nutzung von KI-Assistenten für zusätzliche Fallstricke. Meetingprotokolle, interne Strategiepapiere, Quellcode, unveröffentlichte Produktpläne oder Kundendaten gelten in vielen Branchen als Betriebsgeheimnis. Werden diese Inhalte ungeprüft in Chatbots kopiert, drohen Vertragsverletzungen, Bußgelder und im Extremfall Haftungsansprüche gegen Beschäftigte und Arbeitgeber.
Sicherheitsexperte Rehberger betont laut chip.de, dass KI-Systeme nicht erkennen, von wem eine Anweisung kommt und ob die Person zur Weitergabe befugt ist. Hinzu kommt die juristische Ebene: Anfragen zu Straftaten – selbst „nur aus Neugier“ – können protokolliert und unter Umständen an Behörden übermittelt werden. Unternehmen sollten deshalb klare Richtlinien zur Nutzung generativer KI definieren und Belegschaften gezielt schulen.
Ebenfalls nicht gut aufgehoben bei ChatGPT
Auf dem Instagram-Account von ZDFinfo wird zusammengefasst, welche Daten besser nicht mit ChatGPT geteilt werden sollten. Dazu gehören auch Dinge wie Psychische Probleme, Beichen über Straftaten, Rechtliche Fragen, Sexualität, Private Bilder – vor allem nicht von Kindern – sowie politische und religiöse Ansichten.
Darüberhinaus empfielt der Post, seine Daten zu verschlüsseln und zum Beispiel „für einen Freund“ zu fragen.