Sie haben diese Woche 50 Prompts an ChatGPT gesendet. Sie haben Claude gebeten, proprietäre Dokumente zusammenzufassen. Sie haben Gemini mit der Quartalsanalyse Ihres Unternehmens gefüttert. Drei Minuten später fragten Sie sich: Wohin genau sind diese Daten gegangen?
Die Antwort ist nicht binär. Diese Modelle behandeln Ihre Daten nicht alle gleich, und die Standardeinstellungen sind nicht immer das, was Sie denken.
ChatGPT: Das Standard-Speichermodell
OpenAI speichert Ihre Unterhaltungen standardmäßig. Jeder Prompt, jede Antwort, jede Bearbeitung, die Sie vornehmen, bleibt in Ihrer Kontohistorie, es sei denn, Sie deaktivieren sie ausdrücklich.
So funktioniert es: Wenn Sie sich bei ChatGPT (kostenlos oder Plus-Tarif) anmelden, behält OpenAI Ihre Konversationsdaten. Sie werden für zwei angegebene Zwecke verwendet – zur Verbesserung ihrer Modelle und zur Erkennung von Missbrauch. Der Teil der Verbesserung ist wichtig: Ihre Daten werden von menschlichen Auftragnehmern überprüft und potenziell für zukünftiges Modelltraining verwendet. OpenAI hat seine Datenschutzrichtlinien-Aktualisierung im März 2023 veröffentlicht, um dies zu klären.
Es gibt einen Workaround: die Option Chatverlauf in den Einstellungen. Deaktivieren Sie diese, und OpenAI speichert diese Konversation nicht. Aber hier ist der Haken – Sie verlieren die Gesprächskontinuität. Jeder neue Chat ist isoliert. Keine Historie, auf die Sie später zurückgreifen können. Kompromiss: Privatsphäre gegen Komfort.
Wenn Sie die API (Entwicklerintegration) verwenden, ändert sich die Rechnung. API-Aufrufe werden nicht in Ihrer Kontohistorie gespeichert und nicht standardmäßig für das Modelltraining verwendet. OpenAI behält API-Daten 30 Tage lang zur Missbrauchserkennung und löscht sie dann. Für Teams, die sensible Daten verarbeiten – Finanzunterlagen, Gesundheitsinformationen, proprietärer Code – ist der API-Weg der sicherere Standard.
Praktische Konsequenz: Wenn Sie einen Kundenvertrag in die Weboberfläche von ChatGPT einfügen, gehen Sie davon aus, dass OpenAI ihn behält. Wenn Sie ChatGPT über die API mit einer 30-tägigen Datenspeicherungsrichtlinie in eine Anwendung integrieren, agieren Sie unter anderen Einschränkungen.
Claude: Opt-in-Training, längere Speicherung
Der Standard von Anthropic ist anders. Sie speichern Konversationsdaten für bis zu 30 Tage, aber sie trainieren nicht ohne ausdrückliche Zustimmung darauf.
Wenn Sie Claude über die Weboberfläche (Claude.ai) nutzen, speichert Anthropic Ihre Unterhaltungen. Ihr angegebener Grund: Sicherheitsüberprüfung und Modellverbesserung – aber nur, wenn Sie sich ausdrücklich dafür entscheiden, Ihre Chats für das Training freizugeben. Standardmäßig sind Sie vom Modelltraining ausgeschlossen. Ihre Daten bleiben 30 Tage lang in ihren Systemen, dann werden sie gelöscht (oder anonymisiert, je nach Dokumentation zum Zeitpunkt der Nutzung).
Wichtig: Die Claude API von Anthropic hat andere Bedingungen. Wenn Sie eine Anwendung mit der Claude API entwickeln, trainiert Anthropic nicht mit API-Daten. Null Trainingsnutzung. Sie speichern API-Aufrufe zur Missbrauchserkennung und Fehlersuche, aber Daten fließen nicht zurück in die Modellverbesserung.
Der praktische Unterschied zu ChatGPT: Claude verwendet Ihre Unterhaltungen standardmäßig nicht für das Training. Sie müssen sich dafür entscheiden. OpenAI speichert (und verwendet) standardmäßig, es sei denn, Sie schalten es aus.
Gemini: Googles Integrationsproblem
Gemini (früher Bard) läuft unter der Datenschutzrichtlinie von Google, und diese Richtlinie ist an Ihr Google-Konto gebunden. Komplexitätsmultiplikator: hoch.
Wenn Sie Gemini über das Web nutzen, speichert Google Ihre Unterhaltungen. Die Datenschutzrichtlinie von Google besagt, dass sie Daten „zur Pflege, zum Schutz und zur Verbesserung von Diensten, einschließlich der Entwicklung neuer Funktionen“, verwenden. Das ist Code für: Ihre Prompts könnten für das Training verwendet werden. Aber es gibt Nuancen – Google unterliegt EU-Vorschriften, dem kalifornischen Datenschutzgesetz und anderen. Was sie tun können, variiert je nach Gerichtsbarkeit.
Für Entwickler, die die Gemini API verwenden, sind die Bedingungen von Google klarer: Sie verwenden Eingabedaten der API standardmäßig nicht für das Training. Aber sie protokollieren sie zur Sicherheit und Fehlersuche, und sie speichern sie länger als Anthropic oder OpenAI – in einigen Fällen bis zu 18 Monate, je nach Produktstufe.
Das Integrationsproblem: Wenn Sie während der Nutzung von Gemini in Ihrem Google-Konto angemeldet sind, wird Ihre Chat-Historie mit Ihrer breiteren Google-Konto-Historie synchronisiert. Sie ist nicht isoliert. Sie ist mit Ihrer Suchhistorie, Gmail, Google Drive-Aktivitäten verknüpft – dem gesamten Google-Ökosystem. Das schafft ein größeres Datenprofil als jedes der anderen Modelle.
Was das für die reale Arbeit bedeutet
Wenn Sie sensible Daten verarbeiten, ist hier die relevante Architektur:
- Finanzdaten, Gesundheitsakten, proprietärer Code: Nutzen Sie den API-Weg (OpenAI API oder Claude API), nicht die Weboberfläche. APIs trainieren standardmäßig nicht mit Ihren Daten, und die Speicherfenster betragen 30 Tage oder weniger.
- Interne Brainstormings, nicht sensible Analysen: Weboberflächen sind in Ordnung. Der Kompromiss ist akzeptabel, da die Daten kein Risiko darstellen.
- Umgebung mit mehreren Benutzern und Regulierung: Die Claude API ist der sicherere Standard. Anthropic’s explizite Nicht-Trainingsrichtlinie ist klarer als das Opt-out-Modell von OpenAI.
- Google/Workspace-Integration erforderlich: Nutzen Sie die Gemini API mit ausdrücklichen Datenspeicherungsrichtlinien, die in Ihrem Vertrag verankert sind, nicht die Weboberfläche.
Eine Sache, die Sie heute tun können
Überprüfen Sie Ihre aktuelle Einrichtung. Gehen Sie die Nutzung von ChatGPT, Claude und Gemini durch Ihr Team durch. Kennzeichnen Sie alle Fälle, in denen sensible Daten (Kundeninformationen, interne Strategien, proprietäre technische Details) in die Weboberfläche eingefügt wurden. Wenn Sie fündig werden, fordern Sie OpenAI auf, diese Konversationen über sein Datenschutzportal zu löschen, und migrieren Sie dann diesen Workflow auf API-basierten Zugriff.
Die Einrichtung dauert eine Stunde. Die Risikoreduzierung ist messbar.