Tu
prompt
funciona
bien
en
Claude.
Luego
lo
pegas
en
GPT-4o
y
obtienes
basura.
Cambias
a
Gemini
y
la
respuesta
está
mal
formateada.
Esto
no
es
una
señal
de
que
necesitas
mejorar
tus
prompts,
sino
una
señal
de
que
necesitas
prompts
creados
para
el
modelo
específico
que
estás
utilizando.
Cada
modelo
tiene
diferentes
entrenamientos,
diferentes
manejo
de
tokens
y
diferentes
patrones
de
seguimiento
de
instrucciones.
Un
prompt
que
aprovecha
las
fortalezas
de
Claude
desperdiciará
tokens
en
GPT-4o.
Lo
que
funciona
para
extracción
estructurada
en
Gemini
podría
confundir
a
Mistral.
Esto
no
es
teórico.
Es
la
diferencia
entre
una
tasa
de
éxito
del
70%
y
una
del
94%
en
la
misma
tarea.
Por
Qué
Un
Prompt
No
Sirve
Para
Tres
Modelos
Claude
(especialmente
Sonnet
4)
fue
entrenado
con
Constitutional
AI,
lo
que
hace
que
responda
bien
a
instrucciones
directas
y
cadenas
de
razonamiento
explícitas.
Es
eficiente
con
los
tokens
y
maneja
casos
límite
sin
sobre-disculparse.
GPT-4o
está
optimizado
para
el
seguimiento
de
instrucciones
a
escala
massiva—conoce
más
de
200
trucos
de
ingeniería
de
prompts
porque
millones
de
usuarios
los
probaron.
Gemini
(particularmente
los
últimos
modelos
2.0)
destaca
en
tareas
multimodales
y
tiene
diferente
priorización
de
instrucciones.
La
eficiencia
de
tokens
importa.
La
ventana
de
contexto
de
Claude
es
de
200K
tokens,
pero
GPT-4o
cobra
de
manera
diferente
por
entrada
y
salida.
Un
prompt
que
desperdicia
2,000
tokens
de
entrada
en
Claude
te
cuesta
0.30
dólares.
El
mismo
desperdicio
en
GPT-4o
cuesta
1.20
dólares.
El
precio
de
Gemini
vuelve
a
cambiar.
Más
importante:
cada
modelo
pondera
las
instrucciones
de
manera
diferente.
Lo
que
enfatizas
en
el
system
prompt,
dónde
colocas
los
ejemplos
y
cómo
estructuras
el
razonamiento—esto
afecta
directamente
la
calidad
de
la
salida
por
modelo.
Probé
esto
extensivamente
construyendo
la
pipeline
de
extracción
de
señales
de
trading
de
AlgoVesta.
Misma
tarea,
tres
modelos,
tres
estructuras
de
prompt
completamente
diferentes
para
alcanzar
90%+
de
precisión
en
los
tres.
El
Principio
Claude-First:
Instrucción
Directa
Claude
responde
mejor
a
la
claridad
sin
rodeos.
No
necesita
que
le
pidas
permiso
o
suavices
las
peticiones.
#
Prompt
incorrecto
(demasiado
cauteloso)
¿Podrías
posiblemente
ayudarme
a
extraer
las
métricas
financieras
clave
de
este
informe
de
earnings?
Apreciaría
mucho
si
pudieras
también
resumir
los
riesgos
mencionados.
#
Prompt
mejorado
(directo,
estructurado)
Extrae
estas
métricas
financieras
del
informe
de
earnings:
- Ingresos
(totales
y
por
segmento)
- Margen
operativo
- Flujo
de
caja
por
operaciones
- Riesgos
clave
mencionados
en
la
sección
MD&A
Formatea
como
JSON
con
estas
claves
exactas.
El
entrenamiento
de
Claude
hace
que
penalice
la
verborrea.
Cada
palabra
de
rodeos—