Votre prompt fonctionne bien dans Claude. Puis vous le collez dans GPT-4o et obtenez des résultats médiocres. Vous passez à Gemini et la réponse est mal formatée. Ce n’est pas le signe que vous avez besoin d’une meilleure ingénierie de prompt, c’est le signe que vous avez besoin de prompts conçus pour le modèle spécifique que vous utilisez.
Chaque modèle a un entraînement différent, une gestion des tokens différente et des schémas de suivi d’instructions différents. Un prompt qui exploite les forces de Claude gaspillera des tokens sur GPT-4o. Ce qui fonctionne pour l’extraction structurée dans Gemini pourrait confondre Mistral. Ce n’est pas théorique. C’est la différence entre un taux de succès de 70 % et un taux de succès de 94 % sur la même tâche.
Pourquoi Un Prompt Ne Convient Pas à Trois Modèles
Claude (en particulier Sonnet 4) a été entraîné avec l’IA Constitutionnelle, ce qui le fait répondre positivement aux instructions directes et aux chaînes de raisonnement explicites. Il est efficace avec les tokens et gère les cas limites sans s’excuser à outrance. GPT-4o est optimisé pour le suivi d’instructions à grande échelle : il connaît plus de 200 astuces d’ingénierie de prompt car des millions d’utilisateurs les ont essayées. Gemini (particulièrement les derniers modèles 2.0) excelle dans les tâches multimodales et a une priorisation des instructions différente.
L’efficacité des tokens est importante. La fenêtre de contexte de Claude est de 200 000 tokens, mais GPT-4o facture différemment les entrées et les sorties. Un prompt qui gaspille 2 000 tokens d’entrée dans Claude vous coûte 0,30 $. Le même gaspillage dans GPT-4o coûte 1,20 $. La tarification de Gemini change encore.
Plus important encore : chaque modèle pondère différemment les instructions. Ce que vous mettez en avant dans le prompt système, où vous placez les exemples et comment vous structurez le raisonnement, affecte directement la qualité de la sortie par modèle. J’ai testé cela intensivement en construisant le pipeline d’extraction de signaux de trading d’AlgoVesta. Même tâche, trois modèles, trois structures de prompt complètement différentes pour atteindre plus de 90 % de précision sur les trois.
Le Principe « Claude d’Abord » : Instruction Directe
Claude répond mieux à la clarté sans détours. Il n’a pas besoin que vous demandiez la permission ou que vous adoucissiez vos requêtes.
# Mauvais prompt (trop prudent)
Pourriez-vous éventuellement m'aider à extraire les indicateurs financiers clés de ce rapport de résultats ? Je vous serais très reconnaissant si vous pouviez également résumer les risques mentionnés.
# Prompt amélioré (direct, structuré)
Extrayez ces indicateurs financiers du rapport de résultats :
- Revenus (total et par segment)
- Marge opérationnelle
- Flux de trésorerie des opérations
- Risques clés mentionnés dans la section MD&A
Formatez en JSON avec ces clés exactes.
L’entraînement de Claude le fait pénaliser la verbosité. Chaque mot de précaution—