Vous avez envoyé 50 prompts à ChatGPT cette semaine. Vous avez demandé à Claude de résumer des documents propriétaires. Vous avez alimenté Gemini avec l’analyse trimestrielle de votre entreprise. Trois minutes plus tard, vous vous êtes demandé : où exactement ces données sont-elles allées ?
La réponse n’est pas binaire. Ces modèles ne traitent pas tous vos données de la même manière, et les paramètres par défaut ne sont pas toujours ceux que vous pensez.
ChatGPT : Le modèle de stockage par défaut
OpenAI stocke vos conversations par défaut. Chaque prompt, chaque réponse, chaque modification que vous effectuez reste dans l’historique de votre compte, sauf si vous le désactivez explicitement.
Voici le fonctionnement : lorsque vous vous connectez à ChatGPT (gratuit ou Plus), OpenAI conserve vos données de conversation. Ils les utilisent dans deux buts déclarés : l’amélioration de leurs modèles et la détection d’abus. La partie amélioration est importante : vos données sont examinées par des sous-traitants humains et potentiellement utilisées pour l’entraînement de futurs modèles. OpenAI a publié la mise à jour de sa politique de confidentialité en mars 2023 pour clarifier ce point.
Il existe une solution de contournement : le bouton Historique des conversations dans les paramètres. Désactivez-le, et OpenAI ne stocke pas cette conversation. Mais voici le hic : vous perdez la continuité de la conversation. Chaque nouveau chat est isolé. Pas d’historique pour référence ultérieure. Le compromis : la vie privée contre la commodité.
Si vous utilisez l’API (intégration développeur), le calcul change. Les appels API ne sont pas stockés dans l’historique de votre compte et ne sont pas utilisés pour l’entraînement des modèles par défaut. OpenAI conserve les données de l’API pendant 30 jours pour la détection d’abus, puis les supprime. Pour les équipes manipulant des données sensibles — dossiers financiers, informations de santé, code propriétaire — la voie de l’API est le défaut le plus sûr.
Conséquence pratique : si vous collez un contrat client dans l’interface web de ChatGPT, supposez qu’OpenAI le conserve. Si vous intégrez ChatGPT dans une application via l’API avec une politique de rétention de données de 30 jours, vous opérez sous des contraintes différentes.
Claude : Entraînement opt-in, Rétention plus longue
Le défaut d’Anthropic est différent. Ils conservent les données de conversation jusqu’à 30 jours, mais ne les utilisent pas pour l’entraînement sans consentement explicite.
Lorsque vous utilisez Claude via l’interface web (Claude.ai), Anthropic stocke vos conversations. Leur raison déclarée : revue de sécurité et amélioration du modèle — mais seulement si vous acceptez explicitement de partager vos chats pour l’entraînement. Par défaut, vous êtes exclu de l’entraînement des modèles. Vos données restent dans leurs systèmes pendant 30 jours, puis elles sont supprimées (ou anonymisées, selon leur documentation au moment de l’utilisation).
Important : l’API Claude d’Anthropic a des conditions différentes. Si vous développez une application avec l’API Claude, Anthropic n’entraîne pas ses modèles sur les données de l’API. Aucune utilisation pour l’entraînement. Ils conservent les appels API pour la détection d’abus et le débogage, mais les données ne sont pas réinjectées dans l’amélioration du modèle.
La différence pratique avec ChatGPT : Claude n’utilise pas vos conversations pour l’entraînement par défaut. Vous devez opter pour cela. OpenAI stocke (et utilise) par défaut, sauf si vous désactivez cette option.
Gemini : Le problème d’intégration de Google
Gemini (anciennement Bard) fonctionne sous la politique de confidentialité de Google, et cette politique est liée à votre compte Google. Multiplicateur de complexité : élevé.
Lorsque vous utilisez Gemini via le web, Google stocke vos conversations. La politique de confidentialité de Google stipule qu’ils utilisent les données « pour maintenir, protéger et améliorer les services, y compris la création de nouvelles fonctionnalités ». C’est un euphémisme pour : vos prompts pourraient être utilisés pour l’entraînement. Mais il y a une nuance : Google est confronté aux réglementations européennes, au droit californien sur la vie privée, et à d’autres. Ce qu’ils peuvent faire varie selon la juridiction.
Pour les développeurs utilisant l’API Gemini, les conditions de Google sont plus claires : ils n’utilisent pas les données d’entrée de l’API pour l’entraînement par défaut. Mais ils les enregistrent pour la sécurité et le débogage, et ils les conservent plus longtemps qu’Anthropic ou OpenAI — jusqu’à 18 mois dans certains cas, selon le niveau de produit.
Le problème d’intégration : si vous êtes connecté à votre compte Google lorsque vous utilisez Gemini, votre historique de conversation se synchronise avec l’historique plus large de votre compte Google. Il n’est pas isolé. Il est lié à votre historique de recherche, Gmail, activité Google Drive — l’écosystème Google complet. Cela crée un profil de données plus large que celui de n’importe lequel des autres modèles.
Ce que cela signifie pour le travail réel
Si vous manipulez des données sensibles, voici l’architecture qui importe :
- Données financières, dossiers médicaux, code propriétaire : Utilisez la voie de l’API (API OpenAI ou API Claude), pas l’interface web. Les API n’entraînent pas vos données par défaut, et les fenêtres de rétention sont de 30 jours ou moins.
- Réunions de brainstorming internes, analyses non sensibles : Les interfaces web conviennent. Le compromis est acceptable car les données n’exposent pas de risque.
- Environnement multi-utilisateurs, réglementé : L’API Claude est le défaut le plus sûr. La politique explicite de non-entraînement d’Anthropic est plus claire que le modèle d’opt-out d’OpenAI.
- Intégration Google/Workspace requise : Utilisez l’API Gemini avec des politiques de rétention de données explicites verrouillées dans votre contrat, pas l’interface web.
Une chose à faire aujourd’hui
Auditez votre configuration actuelle. Examinez l’utilisation par votre équipe de ChatGPT, Claude et Gemini. Signalez toutes les instances où des données sensibles (informations client, stratégie interne, détails techniques propriétaires) ont été collées dans l’interface web. Si vous en trouvez, demandez à OpenAI de supprimer ces conversations via leur portail de confidentialité, puis migrez ce flux de travail vers un accès basé sur l’API.
La configuration prend une heure. La réduction des risques est mesurable.