Un prompt de sistema es la diferencia entre una IA que divaga y una que ejecuta. El mes pasado, reconstruí el pipeline de extracción de AlgoVesta cambiando exactamente tres líneas en el prompt de sistema. Mismo modelo. Mismos datos de entrada. La calidad de la salida saltó del 67% de interpretabilidad al 94%.
La mayoría trata los prompts de sistema como instrucciones decorativas. No lo son. Un prompt de sistema es tu única forma garantizada de moldear cómo piensa un modelo antes de que vea tu solicitud real.
Qué Hace Realmente un Prompt de Sistema
Un prompt de sistema es el primer mensaje en una conversación —el que el usuario nunca ve. Es donde defines el rol del modelo, sus restricciones, formato de salida y reglas de toma de decisiones. El modelo lo trata como contexto que no expira. Se aplica a cada mensaje en ese hilo de conversación.
Esto es importante porque el modelo pondera las instrucciones del sistema más fuertemente que la entrada del usuario en la mayoría de las implementaciones. Un prompt de sistema bien diseñado sobrevive a prompts de usuario descuidados. Uno débil se desmorona ante ellos.
Tres Componentes Que Controlan el Comportamiento
Definición del rol. Dile al modelo exactamente qué es. No «eres un asistente útil» — eso no tiene sentido. Sé específico.
# Prompt de sistema malo
Eres un asistente de IA útil que proporciona información sobre trading.
# Prompt de sistema mejor
Eres un analista cuantitativo de trading con 10 años de experiencia.
Tu trabajo es analizar datos de mercado e identificar oportunidades de arbitraje estadístico.
No proporcionas asesoramiento financiero. Señalas oportunidades y sus riesgos.
Explicas tu razonamiento en puntos cortos y numerados.
La segunda versión restringe la estructura de salida, elimina la expansión del alcance y evita que el modelo pivote a asesoramiento financiero cuando le pides que analice algo.
Especificación del formato de salida. No asumas que el modelo formateará la salida como la necesitas. Defínelo explícitamente.
# Prompt de sistema malo
Analiza el siguiente conjunto de datos y proporciona información.
# Prompt de sistema mejor
Analiza el siguiente conjunto de datos.
Devuelve la salida SÓLO como JSON válido en esta estructura exacta:
{
"anomalies": [
{"metric": string, "threshold": number, "current_value": number}
],
"confidence": 0.0 a 1.0,
"risk_flags": [string]
}
No incluyas texto explicativo fuera de este JSON.
Sin reglas de formato explícitas, Claude o GPT-4o envolverán el JSON en bloques de código markdown, añadirán texto preliminar o incluirán advertencias que rompen el análisis posterior. La especificidad previene esto.
Restricciones de comportamiento. Dile al modelo qué rechazar y cuándo señalar incertidumbre.
# Prompt de sistema malo
Sé preciso.
# Prompt de sistema mejor
Si encuentras alguno de los siguientes, di INCIERTO y deja de procesar:
- Datos con >20% de valores faltantes
- Solicitudes que te piden proyectar más allá de 30 días
- Consultas sobre datos financieros de individuos específicos
No estimar datos faltantes. No extrapolar más allá de tu ventana de datos de entrenamiento.
Si no puedes completar la tarea, explica por qué en una frase.
Esto previene puntos de datos alucinados y hace visibles los fallos para los procesos posteriores.
El Equilibrio entre Temperatura y Tokens
Los prompts de sistema funcionan con la configuración del modelo, no en su contra. La temperatura controla la aleatoriedad; un prompt de sistema controla la dirección.
Para tareas deterministas (extracción de datos, formato JSON, análisis estructurado), usa temperatura 0.0–0.3 con un prompt de sistema preciso. La baja temperatura hace al modelo predecible; el prompt de sistema lo hace consistente.
Para tareas generativas (redacción, lluvia de ideas, creación de contenido), usa temperatura 0.7–0.9 pero mantén el prompt de sistema enfocado en el tono y los límites de salida, no en el contenido específico.
Claude Sonnet 4 (Marzo de 2025) respeta los prompts de sistema más estrictamente que GPT-4o. Si cambias de modelo, prueba el prompt de sistema en ambos — el comportamiento difiere. GPT-4o a veces ignora las especificaciones de formato con temperatura 0.8+; Claude las mantiene.
Longitud del Prompt de Sistema y Costo de Tokens
Un prompt de sistema detallado cuesta tokens en cada solicitud de esa conversación. Esto importa si estás ejecutando inferencia de alto volumen.
Un prompt de sistema completo tiene entre 300 y 500 tokens. Con los precios de Claude 3.5 Sonnet (Marzo de 2025), eso es ~$0.001–$0.002 por solicitud solo en tokens de sistema. Multiplica por 100,000 solicitudes al mes y estarás mirando $100–$200 en sobrecarga de prompt de sistema.
La solución no es recortar gastos — es eliminar la redundancia. Cada restricción en tu prompt de sistema debe tener un propósito. Si una restricción aparece en tu prompt de usuario, elimínala del prompt de sistema.
# Redundante
Sistema: "Siempre genera JSON válido. Formatéalo así: {...}"
Usuario: "Analiza estos datos y devuelve JSON en la estructura que especifiqué."
# Optimizado
Sistema: "Siempre genera JSON válido en esta estructura: {...}"
Usuario: "Analiza estos datos."
El prompt de usuario es más barato — solo se procesa una vez por mensaje. El prompt de sistema se procesa cada vez.
Probando Tu Prompt de Sistema
Ejecuta la misma entrada de prueba tres veces y verifica la consistencia. Si la salida varía significativamente, tu prompt de sistema es demasiado vago o tu temperatura es demasiado alta.
Prueba casos límite: entrada mal formada, campos faltantes, solicitudes que violan tus restricciones. Un buen prompt de sistema maneja estos casos sin alucinar — los señala.
Documenta qué cambió y por qué. Cuando reconstruyas el prompt de sistema el próximo mes, sabrás qué funcionó. Yo mantengo un registro de cambios como este:
v1 (Ene): Conjunto básico de instrucciones, 40% de tasa de éxito en extracción compleja
v2 (Feb): Se añadió especificación de formato JSON, 67% de tasa de éxito
v3 (Mar): Se añadió lista de restricciones para casos límite, 94% de tasa de éxito
- Se eliminó definición vaga de rol
- Se añadió protocolo explícito "INCIERTO" para entradas ambiguas
- Se especificó comportamiento exacto de manejo de errores
La iteración está incorporada. El primer prompt de sistema no será óptimo.
Una Cosa Que Hacer Hoy
Toma un prompt que uses regularmente. Reescríbelo con tres secciones explícitas: (1) rol y restricciones, (2) formato de salida como JSON o texto estructurado, (3) qué hacer cuando la tarea falla. Pruébalo con la misma entrada cinco veces. Si los resultados varían en más de un 10%, ajusta el lenguaje o baja la temperatura.