Esta semana has enviado 50 prompts a ChatGPT. Le has pedido a Claude que resuma documentos propietarios. Has alimentado a Gemini con el análisis trimestral de tu empresa. Tres minutos después, te preguntas: ¿a dónde fue exactamente esa información?
La respuesta no es binaria. Estos modelos no tratan tus datos de la misma manera, y las configuraciones predeterminadas no son siempre lo que crees.
ChatGPT: El modelo de almacenamiento predeterminado
OpenAI almacena tus conversaciones por defecto. Cada prompt, cada respuesta, cada edición que haces permanece en el historial de tu cuenta a menos que lo desactives explícitamente.
Así funciona: cuando inicias sesión en ChatGPT (versión gratuita o Plus), OpenAI conserva los datos de tu conversación. Los utilizan para dos fines declarados: mejorar sus modelos y detectar abusos. La parte de mejora es importante: tus datos son revisados por personal humano y potencialmente utilizados en futuros entrenamientos de modelos. OpenAI publicó la actualización de su política de privacidad en marzo de 2023 para aclarar esto.
Hay una solución alternativa: el interruptor Historial de chat en la configuración. Si lo desactivas, OpenAI no almacena esa conversación. Pero aquí está el truco: pierdes la continuidad de la conversación. Cada chat nuevo es aislado. No hay historial al que referirse más tarde. El compromiso: privacidad por conveniencia.
Si utilizas la API (integración para desarrolladores), el cálculo cambia. Las llamadas a la API no se almacenan en el historial de tu cuenta y no se utilizan para entrenar modelos por defecto. OpenAI conserva los datos de la API durante 30 días para la detección de abusos y luego los elimina. Para equipos que manejan datos sensibles (registros financieros, información de salud, código propietario), la ruta de la API es la opción predeterminada más segura.
Consecuencia práctica: si pegas el contrato de un cliente en la interfaz web de ChatGPT, asume que OpenAI lo retiene. Si integras ChatGPT en una aplicación a través de la API con una política de retención de datos de 30 días, estás operando bajo diferentes restricciones.
Claude: Entrenamiento opcional, retención más larga
El valor predeterminado de Anthropic es diferente. Conservan los datos de la conversación durante hasta 30 días, pero no los utilizan para entrenar sin consentimiento explícito.
Cuando usas Claude a través de la interfaz web (Claude.ai), Anthropic almacena tus conversaciones. Su motivo declarado: revisión de seguridad y mejora del modelo, pero solo si aceptas explícitamente compartir tus chats para el entrenamiento. Por defecto, no estás incluido en el entrenamiento del modelo. Tus datos permanecen en sus sistemas durante 30 días, luego se eliminan (o anonimizan, según su documentación en el momento de uso).
Importante: La API de Claude de Anthropic tiene términos diferentes. Si estás construyendo una aplicación con la API de Claude, Anthropic no entrena con los datos de la API. Cero uso para entrenamiento. Conservan las llamadas a la API para detección de abusos y depuración, pero los datos no se retroalimentan a la mejora del modelo.
La diferencia práctica con ChatGPT: Claude, por defecto, no utiliza tus conversaciones para entrenar. Tienes que aceptarlo explícitamente. OpenAI, por defecto, almacena (y utiliza) a menos que lo desactives.
Gemini: El problema de integración de Google
Gemini (anteriormente Bard) opera bajo la política de privacidad de Google, y esa política está vinculada a tu cuenta de Google. Multiplicador de complejidad: alto.
Cuando usas Gemini a través de la web, Google almacena tus conversaciones. La política de privacidad de Google establece que utilizan los datos «para mantener, proteger y mejorar los servicios, incluida la creación de nuevas funciones». Eso es un eufemismo para: tus prompts podrían usarse para entrenamiento. Pero hay matices: Google se enfrenta a regulaciones de la UE, leyes de privacidad de California y otras. Lo que pueden hacer varía según la jurisdicción.
Para los desarrolladores que utilizan la API de Gemini, los términos de Google son más claros: no utilizan los datos de entrada de la API para entrenamiento por defecto. Pero los registran para seguridad y depuración, y los conservan más tiempo que Anthropic u OpenAI, hasta 18 meses en algunos casos, dependiendo del nivel del producto.
El problema de integración: si has iniciado sesión en tu cuenta de Google mientras usas Gemini, el historial de tu chat se sincroniza con el historial más amplio de tu cuenta de Google. No está aislado. Está vinculado a tu historial de búsqueda, Gmail, actividad de Google Drive: todo el ecosistema de Google. Eso crea un perfil de datos más grande que cualquiera de los otros modelos.
¿Qué significa esto para el trabajo real?
Si manejas datos sensibles, esta es la arquitectura que importa:
- Datos financieros, registros médicos, código propietario: Utiliza la ruta de la API (API de OpenAI o API de Claude), no la interfaz web. Las API no entrenan con tus datos por defecto, y las ventanas de retención son de 30 días o menos.
- Lluvia de ideas internas, análisis no sensibles: Las interfaces web están bien. El compromiso es aceptable porque los datos no exponen riesgos.
- Entorno regulado multiusuario: La API de Claude es la opción predeterminada más segura. La política explícita de no entrenamiento de Anthropic es más clara que el modelo de exclusión voluntaria de OpenAI.
- Se requiere integración con Google/Workspace: Utiliza la API de Gemini con políticas explícitas de retención de datos bloqueadas en tu contrato, no la interfaz web.
Una cosa que puedes hacer hoy
Audita tu configuración actual. Revisa el uso que tu equipo hace de ChatGPT, Claude y Gemini. Marca cualquier instancia en la que se hayan pegado datos sensibles (información del cliente, estrategia interna, detalles técnicos propietarios) en la interfaz web. Si los encuentras, solicita a OpenAI que elimine esas conversaciones a través de su portal de privacidad, y luego migra ese flujo de trabajo a acceso basado en API.
La configuración lleva una hora. La reducción del riesgo es medible.