ChatGPT, DeepL, WeTransfer, iLovePDF, Canva – diese Dienste sparen täglich Zeit und sind aus dem Arbeitsalltag kaum noch wegzudenken. Aber wissen Ihre Mitarbeitenden, was im Hintergrund mit ihren Eingaben passiert? Und was das für vertrauliche Firmendaten bedeutet? All das können Sie in unserem Cyber Snack interaktiv erleben, oder in diesem Artikel lesen. Viel Spaß.

Online-Dienste und KI-Tools:
Was mit Ihren Daten wirklich passiert
Die gute Nachricht zuerst: Niemand muss auf KI-Tools und Online-Dienste verzichten. Sie bieten echten Mehrwert – und das ist auch der Grund, warum Verbote in der Praxis nicht funktionieren.
Die schlechte Nachricht: Die meisten Mitarbeitenden denken beim Klick auf „Senden" nicht darüber nach, wohin ihre Daten gehen – und wie lange sie dort bleiben. Genau das ist das Problem.
Was im Hintergrund wirklich passiert

Wann immer jemand einen Online-Dienst nutzt – ob KI-Chatbot, Übersetzungstool oder PDF-Konverter – werden die eingegebenen Daten an die Server des Anbieters übertragen. Das ist technisch unvermeidbar: Ohne diese Übertragung kann der Dienst seine Arbeit nicht erledigen.
Soweit ist das bekannt und akzeptiert. Was deutlich weniger bekannt ist: Was danach mit diesen Daten passiert, hängt maßgeblich davon ab, ob jemand zahlender Nutzer ist oder nicht.
Bei vielen kostenlosen Diensten gilt eine Regel, die in den Nutzungsbedingungen steht, aber kaum jemand liest: Wer nicht bezahlt, zahlt mit seinen Daten. Konkret bedeutet das, dass Eingaben für das Training zukünftiger KI-Modelle verwendet werden können. Sobald ein neues Modell verfügbar ist, können diese Daten – unbeabsichtigt, aber real – in dessen Antworten auftauchen.
Drei dokumentierte Vorfälle, die keine Theorie sind

Amazon, Januar 2023
Amazon-Mitarbeitende hatten interne Texte und Quellcode in ChatGPT eingegeben, um sie zu verbessern. Das Ergebnis: ChatGPT-Antworten ähnelten internen Amazon-Dokumenten so stark, dass ein Amazon-Anwalt daraufhin eine firmenweite Warnung herausgab. Wörtlich hieß es in der internen Nachricht: Es seien bereits Fälle aufgetreten, in denen die Ausgabe von ChatGPT bestehende interne Materialien sehr nahe widerspiegelte. Amazon forderte Mitarbeitende auf, keinerlei vertrauliche Unternehmensdaten mehr in ChatGPT einzugeben.*
ChatGPT-Bug, 20. März 2023
Ein Fehler in einer Open-Source-Bibliothek führte dazu, dass ChatGPT Plus-Abonnenten während eines neunstündigen Zeitfensters auf Daten anderer Nutzer zugreifen konnten – darunter Vor- und Nachnamen, E-Mail-Adressen, Zahlungsadressen sowie die letzten vier Ziffern von Kreditkartennummern. Betroffen waren 1,2 Prozent der damals aktiven ChatGPT Plus-Abonnenten. OpenAI schaltete die Plattform daraufhin offline und bestätigte den Vorfall öffentlich.**
Mixpanel-Datenpanne, November 2025
Am 9. November 2025 verschaffte sich ein Angreifer unbefugten Zugang zu Systemen von Mixpanel, einem Analytics-Dienstleister, den OpenAI für die Auswertung der Plattformnutzung einsetzte. Der Angreifer exportierte einen Datensatz mit Namen, E-Mail-Adressen und Standortdaten von API-Nutzern. OpenAI informierte die Betroffenen am 26. November 2025, beendete die Zusammenarbeit mit Mixpanel und wies ausdrücklich auf erhöhte Wachsamkeit gegenüber Phishing- und Social-Engineering-Angriffen hin, die mit den gestohlenen Daten durchgeführt werden könnten.***
Diese drei Vorfälle illustrieren drei unterschiedliche Risikoquellen: bewusste Datennutzung durch den Anbieter, technische Fehler und Angriffe auf Drittanbieter. Keiner davon ist hypothetisch.
Die drei goldenen Regeln

Regel 1: Nur freigegebene Tools nutzen
Viele Unternehmen stellen firmeninterne Versionen von Tools wie ChatGPT oder DeepL bereit. Diese funktionieren technisch identisch – mit einem entscheidenden Unterschied: Die eingegebenen Daten werden nicht für das Training externer Modelle verwendet und in der Regel nicht dauerhaft gespeichert.
Wichtig: Auch eine firmeneigene Version ist kein Freifahrtschein. Daten werden immer zumindest kurzfristig gespeichert. Regel 2 gilt deshalb auch hier.
Regel 2: Personenbezogene Daten anonymisieren
Das ist die Regel, die in der Praxis am meisten Wirkung entfaltet – und am seltensten befolgt wird. Das Prinzip ist einfach.
Statt:
„Schreib eine Mahnung an unseren Kunden Max Mustermann, Musterstraße 1 in Berlin, wegen der unbezahlten Rechnung über 500 Euro"
lautet die Eingabe:
„Schreib eine Mahnung an Kunde A wegen einer unbezahlten Rechnung."
Die echten Daten werden erst am Ende manuell eingefügt. Das dauert 30 Sekunden länger – und verhindert, dass vertrauliche Informationen auf fremden Servern landen.
Regel 3: Im Zweifel nachfragen
Wer sich unsicher ist, ob ein bestimmtes Dokument oder eine bestimmte Information in einen Online-Dienst eingegeben werden darf, fragt bei IT Security oder Compliance nach. Lieber eine Frage zu viel als einen Datenschutzvorfall zu wenig.
Und privat? Die Frage, die sich jeder stellt

Die meisten Awareness-Programme enden bei der Firmennutzung. Das ist ein Fehler – denn die Grenze zwischen beruflichem und privatem Gerät ist längst porös.
Wer privat unvorsichtig mit seinen Daten umgeht, entwickelt Gewohnheiten. Und Gewohnheiten hören nicht auf, wenn jemand das Firmennotebook aufklappt.
Konkret: Wer privat die eigene Krankenakte, Finanzdaten oder persönliche Nachrichten in einen kostenlosen KI-Dienst eingibt, gibt die Kontrolle über diese Informationen ab. Nicht an einen Hacker – sondern an ein Unternehmen, dessen Geschäftsmodell auf Daten basiert. Und genau das sagen die Anbieter selbst, in ihren eigenen Datenschutzerklärungen: Sie können die Geheimhaltung eingegebener Daten nie zu 100 Prozent garantieren.
Für die private Nutzung gelten deshalb dieselben Grundprinzipien wie für die berufliche:
1. Informieren
Wer den Dienst nutzen möchte, sollte sich über den Anbieter informieren – insbesondere darüber, ob Eingaben für Trainingszwecke verwendet werden und wie lange Daten gespeichert werden.
2. Einstellungen konfigurieren
Die meisten großen Dienste bieten Datenschutzeinstellungen an, mit denen das Datentraining deaktiviert werden kann. Diese Einstellungen sind meist nicht die Standardeinstellung – sie müssen aktiv vorgenommen werden. Wie das bei den sechs beliebtesten Diensten funktioniert, zeigt der aktuelle Cyber Snack April direkt am Ende mit einer Schritt-für-Schritt-Anleitung.
3. Sensible Daten anonymisieren
Auch privat gilt: Was nicht eingegeben wird, kann nicht abfließen. Wer einen Text verbessern lassen möchte, muss dafür keine echten Namen, Adressen oder persönlichen Details nennen.
Die eigenen Daten verdienen denselben Schutz wie Firmendaten. Nur wer selbst entscheidet, wer was von ihm wissen soll, behält die Kontrolle – und nicht irgendein fremdes Unternehmen auf einem Server, dessen Standort man nicht kennt.
Was CISOs und Awareness Manager daraus mitnehmen
Das Risiko durch Online-Dienste und KI-Tools ist kein IT-Problem. Es ist ein Gewohnheitsproblem. Mitarbeitende handeln nicht böswillig, wenn sie vertrauliche Daten in ChatGPT eingeben – sie handeln automatisch, weil es schnell geht und immer funktioniert hat.
Awareness-Maßnahmen, die nur auf Verbote setzen, werden daran scheitern. Was wirkt, ist das Verständnis für den konkreten Mechanismus: Wohin gehen meine Daten? Was passiert dort? Und was kann ich tun, ohne auf das Tool zu verzichten?
Genau das trainiert der Cyber Snack April – mit echten Szenarien, interaktiven Entscheidungssituationen und einem FAQ zu den Datenschutz-Einstellungen der sechs beliebtesten Online-Dienste.
Fazit
Online-Dienste und KI-Tools sind keine Bedrohung, die man wegdiskutieren oder verbieten kann. Sie sind Arbeitsrealität – und zunehmend auch Privatrealität. Die Frage ist nicht, ob Mitarbeitende sie nutzen, sondern ob sie wissen, was dabei im Hintergrund passiert.
Nicht jede Datenpanne beginnt mit einem Hacker. Manchmal beginnt sie mit einer gut gemeinten Eingabe in ein Textfeld.
* Quelle: Business Insider, 25. Januar 2023 – Amazon warnt Mitarbeitende, keine vertraulichen Informationen an ChatGPT weiterzugeben.
** Quelle: OpenAI, Blogbeitrag vom 24. März 2023 – „March 20 ChatGPT outage: here's what happened."
*** Quelle: OpenAI, Mitteilung vom 26. November 2025 – „What to know about a recent Mixpanel security incident." (openai.com/index/mixpanel-incident)
