Skip to content
Learning Lab · 7 min read

Zero-Shot vs Few-Shot vs Chain-of-Thought : Choisissez la bonne technique

Le zero-shot, le few-shot et le chain-of-thought sont trois techniques d'invite distinctes avec des profils de précision, de latence et de coût différents. Apprenez quand utiliser chacune, comment les combiner et comment mesurer quelle approche fonctionne le mieux pour votre tâche spécifique.

Zero-Shot vs Few-Shot vs Chain-of-Thought Prompting

Le mois dernier, Claude Sonnet 4 n’a pas réussi à extraire des données structurées d’une facture client du premier coup. Pas d’exemples. Pas d’étapes de raisonnement. Juste une instruction directe. Puis j’ai ajouté un exemple de facture à l’invite. Ça a marché. Ensuite, je lui ai demandé de réfléchir à la logique d’extraction étape par étape avant de répondre. Ça a mieux fonctionné.

Trois approches d’invite différentes. Trois résultats différents. La différence ne venait pas du modèle, mais de l’échafaudage cognitif que j’avais intégré dans l’invite elle-même.

C’est là que la plupart des équipes échouent. Elles traitent l’invite comme un choix binaire : « Est-ce que ça marche ou pas ? » Elles ne posent pas la question plus difficile : « Laquelle de ces trois méthodes résoudra réellement ce problème avec le moins de tokens et la plus haute précision ? » C’est la vraie décision.

Cet article décompose le prompting zero-shot, few-shot et chain-of-thought – non pas comme des concepts abstraits, mais comme des techniques concrètes que vous choisirez dans les systèmes de production. Vous verrez exactement quand chacune fonctionne, quand chacune échoue, et comment les combiner en une stratégie cohérente.

Les Trois Techniques en un Coup d’Œil

Avant de plonger dans les détails, voici le paysage :

Le prompting zero-shot signifie que vous donnez au modèle une tâche sans exemples. Juste des instructions et du contexte. Rapide. Économe en tokens. Fonctionne pour les tâches simples.

Le prompting few-shot signifie que vous donnez au modèle 2 à 5 exemples de la tâche avant de lui demander de résoudre le problème. Plus de contexte. Une précision plus élevée. Coûte plus de tokens.

Le prompting chain-of-thought signifie que vous demandez au modèle d’expliquer son raisonnement étape par étape avant d’arriver à une réponse. Plus lent. Plus cher. Mais cela réduit les hallucinations et améliore le raisonnement sur les problèmes complexes.

Voici un tableau comparatif avec des données de performance réelles issues de mes propres tests sur l’extraction de factures, la classification de clients et les tâches de catégorisation de bugs :

Technique Précision (Moyenne) Tokens par Requête Latence Coût pour 1M de Requêtes Idéal pour
Zero-shot 68–76 % 150–300 1–2 s 0,80 $–1,20 $ Classification simple, résumé
Few-shot (2–5 exemples) 78–86 % 600–1 200 2–3 s 3,20 $–5,10 $ Formats de sortie spécifiques, tâches spécifiques au domaine
Chain-of-thought 82–91 % 800–1 600 3–5 s 4,80 $–8,50 $ Raisonnement complexe, logique multi-étapes, mathématiques
Few-shot + CoT 85–94 % 1 400–2 200 4–7 s 7,50 $–12,00 $ Systèmes de production nécessitant une haute confiance

Ces chiffres sont importants. Ils façonnent l’économie réelle de votre système – les compromis entre coût des tokens, latence et précision. Mais ils dépendent aussi du contexte. Une précision de 76 % en zero-shot peut suffire pour l’étiquetage du sentiment client. C’est inacceptable pour les décisions d’approbation de prêt.

Zero-Shot : Quand on peut se permettre de rester simple

Le zero-shot est la référence. Pas d’exemples. Pas de demande de raisonnement. Juste l’instruction et l’entrée.

Voici un exemple concret. Vous construisez un classificateur de support client qui achemine les tickets entrants vers la bonne équipe :

# Mauvaise invite zero-shot (trop vague)

Classez ce ticket de support :

« Mon envoi n'est pas arrivé depuis 3 semaines. Je suis frustré. »

Catégorie : 

Le modèle pourrait répondre « Expédition » ou « Réclamations » ou « Urgent ». Vous ne le savez pas. L’instruction est ambiguë quant aux catégories existantes ou à la manière de les distinguer.

Voici la version améliorée :

# Invite zero-shot améliorée (instruction explicite)

Vous êtes un routeur de tickets de support. Classez le ticket suivant dans UNE de ces catégories :
- Facturation : problèmes de paiement, litiges de factures, demandes de remboursement
- Expédition : retards de livraison, problèmes de suivi, problèmes d'adresse
- Qualité du produit : défauts, dommages, retours
- Compte : problèmes de connexion, réinitialisations de mot de passe, accès au compte
- Autre : tout autre problème

Ticket : « Mon envoi n'est pas arrivé depuis 3 semaines. Je suis frustré. »

Raisonnement : 
Catégorie : 

Maintenant, vous obtenez « Expédition » de manière cohérente. La différence : catégories explicites + critères clairs pour chacune + un espace pour le raisonnement (que le modèle utilise même si vous n’avez pas demandé de raisonnement chain-of-thought).

Le zero-shot fonctionne mieux lorsque :

  • La tâche est familière aux données d’entraînement du modèle. L’analyse des sentiments, la classification de base, le résumé – ce sont des tâches suffisamment courantes pour que le modèle ait appris des modèles implicites. Il n’a pas besoin d’exemples pour se souvenir comment les faire.
  • Le budget de tokens est serré. Vous traitez des milliers de requêtes par jour et chaque token compte. Une approche zero-shot économise 500 à 800 tokens par requête. C’est de l’argent réel.
  • Les exigences de précision sont modérées. Vous avez besoin d’une précision de 70 à 80 %, et vous disposez d’un flux de travail de secours pour les cas limites (examen humain, nouvelle tentative avec un autre modèle, etc.)
  • Le format de sortie est simple. Une seule catégorie. Une décision oui/non. Un résumé en une phrase. Si vous avez besoin de JSON structuré ou de sortie multi-étapes, le zero-shot échoue plus souvent.

Le zero-shot échoue spectaculairement lorsque :

  • La terminologie spécifique au domaine est importante. Si vous demandez au modèle de catégoriser des conditions médicales ou des instruments financiers, et que les catégories sont étroites ou se chevauchent, le zero-shot devine. GPT-4o sans exemples réussit la classification spécifique au domaine environ 65 % du temps.
  • Le format de sortie est personnalisé. Vous avez besoin que le modèle produise une structure JSON spécifique, ou un tableau markdown, ou une liste numérotée avec des titres gras – le modèle s’en approchera mais manquera souvent des détails.
  • La cohérence est critique. Si vous utilisez la sortie du modèle comme données d’entraînement pour un autre système, ou comme matériel de référence pour les utilisateurs finaux, la variabilité du zero-shot devient un inconvénient.

Few-Shot : Échanger des Tokens contre de la Précision

Le prompting few-shot signifie que vous montrez au modèle 2 à 5 exemples de la tâche, puis vous lui demandez d’effectuer la même tâche sur une nouvelle entrée.

L’amélioration de la précision grâce aux exemples est réelle. Je l’ai mesurée à plusieurs reprises, et le schéma se confirme : l’ajout de 2 à 4 exemples bien choisis augmente généralement la précision de 8 à 15 points de pourcentage. Les rendements décroissants apparaissent après 5 exemples. L’ajout de 10 exemples ne double pas votre précision – il ajoute peut-être 2 à 3 points de pourcentage supplémentaires tout en brûlant 800 tokens supplémentaires.

Voici l’exemple d’extraction de facture que j’ai mentionné plus tôt. La version zero-shot d’abord :

# Extraction de facture zero-shot (échoue environ 35 % du temps)

Extrayez les champs suivants de la facture :
- Numéro de facture
- Date de facture
- Montant total
- Date d'échéance
- Nom du client

Retournez au format JSON.

Facture :
[texte de la facture]

JSON : 

Le modèle extrait quelque chose. Mais il manque la date d’échéance 30 % du temps, ou il place le montant dans le mauvais champ, ou il formate la date comme « 25/12/2024 » alors que votre système attend « 2024-12-25 ».

Maintenant, la version few-shot avec 3 exemples :

# Extraction de facture few-shot (réussit environ 82 % du temps)

Extrayez les champs suivants des factures. Retournez uniquement au format JSON valide, sans autre texte.

Exemple 1 :
Texte de la facture : « Facture #INV-2024-001 émise le 15 janvier 2024. À l'attention de Acme Corp. Total : 5 500 $. Date limite de paiement : 15 février 2024. »
JSON : {

Batikan
· 7 min read
Topics & Keywords
Learning Lab les zero-shot une vous des pour modèle que
Share

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies.

Related Articles

Gestion de la fenêtre de contexte : traiter de longs documents sans perte de données
Learning Lab

Gestion de la fenêtre de contexte : traiter de longs documents sans perte de données

Les limites de la fenêtre de contexte cassent les systèmes d'IA en production. Découvrez trois techniques concrètes pour traiter de longs documents et conversations sans perdre de données ni alourdir les coûts des API.

· 5 min read
Construire des Agents IA : Architecture, Appels d’Outils et Gestion de la Mémoire
Learning Lab

Construire des Agents IA : Architecture, Appels d’Outils et Gestion de la Mémoire

Apprenez à construire des agents IA prêts pour la production en maîtrisant les contrats d'appel d'outils, en structurant correctement les boucles d'agents et en séparant la mémoire en couches de session, de connaissance et d'exécution. Inclut des exemples de code Python fonctionnels.

· 6 min read
Connectez les LLM à vos outils : mise en place d’une automatisation de flux de travail
Learning Lab

Connectez les LLM à vos outils : mise en place d’une automatisation de flux de travail

Connectez ChatGPT, Claude et Gemini à Slack, Notion et Sheets via des API et des plateformes d'automatisation. Découvrez les compromis entre les modèles, créez un bot Slack fonctionnel et automatisez votre premier flux de travail dès aujourd'hui.

· 6 min read
10 workflows ChatGPT pour gagner du temps en entreprise
Learning Lab

10 workflows ChatGPT pour gagner du temps en entreprise

ChatGPT vous fait gagner des heures en lui donnant structure et contraintes claires. Voici 10 workflows de production — de la rédaction d'e-mails à l'analyse concurrentielle — qui réduisent le travail répétitif de moitié, avec des prompts fonctionnels à utiliser dès aujourd'hui.

· 8 min read
Arrêtez les Prompts Génériques : Techniques Spécifiques aux Modèles Qui Fonctionnent Vraiment
Learning Lab

Arrêtez les Prompts Génériques : Techniques Spécifiques aux Modèles Qui Fonctionnent Vraiment

Claude, GPT-4o et Gemini répondent différemment au même prompt. Découvrez des techniques spécifiques aux modèles qui exploitent les forces de chacun, avec des exemples concrets utilisables dès aujourd'hui.

· 3 min read
Écrire comme un humain : le contenu IA sans la voix robotique
Learning Lab

Écrire comme un humain : le contenu IA sans la voix robotique

Le contenu généré par IA se résume à la moyenne : sûr, professionnel et indiscernable. Découvrez quatre techniques pour injecter une vraie voix dans vos sorties : contraintes de spécificité, correspondance de modèles de votre propre écriture, réglage de la température et audit de contraintes qui supprime les schémas robotiques.

· 5 min read

More from Prompt & Learn

Figma IA vs Canva IA vs Adobe Firefly : Comparatif des outils de design
AI Tools Directory

Figma IA vs Canva IA vs Adobe Firefly : Comparatif des outils de design

Figma IA, Canva IA et Adobe Firefly adoptent des approches différentes pour le design génératif. Figma privilégie l'intégration transparente ; Canva privilégie la vitesse ; Firefly privilégie la qualité des résultats. Voici quel outil correspond à votre flux de travail réel.

· 6 min read
DeepL ajoute la traduction vocale. Ce que cela change pour les équipes
AI Tools Directory

DeepL ajoute la traduction vocale. Ce que cela change pour les équipes

DeepL a annoncé la traduction vocale en temps réel pour Zoom et Microsoft Teams. Contrairement aux solutions existantes, elle s'appuie sur la force de DeepL en traduction textuelle — des modèles de traduction directe avec une latence réduite. Voici pourquoi c'est important et où cela échoue.

· 4 min read
10 outils IA gratuits qui sont rentables en 2026
AI Tools Directory

10 outils IA gratuits qui sont rentables en 2026

Dix outils IA gratuits qui remplacent réellement les SaaS payants en 2026 : Claude, Perplexity, Llama 3.2, DeepSeek R1, GitHub Copilot, OpenRouter, HuggingFace, Jina, Playwright et Mistral. Chacun testé dans des flux de travail réels avec des limites de débit réalistes, des benchmarks de précision et des comparaisons de coûts.

· 7 min read
Copilot vs Cursor vs Windsurf : Quel assistant de codage choisir en 2026 ?
AI Tools Directory

Copilot vs Cursor vs Windsurf : Quel assistant de codage choisir en 2026 ?

Trois assistants de codage dominent en 2026. Copilot reste sûr pour les entreprises. Cursor gagne en vitesse et précision pour la plupart des développeurs. Le mode agent de Windsurf exécute réellement le code pour éviter les hallucinations. Voici comment choisir.

· 5 min read
Les outils IA qui vous font gagner des heures chaque semaine
AI Tools Directory

Les outils IA qui vous font gagner des heures chaque semaine

J'ai testé 30 outils de productivité IA dans les domaines de l'écriture, du codage, de la recherche et des opérations. Seuls 8 ont permis de gagner un temps mesurable. Voici quels outils ont un ROI réel, les flux de travail où ils excellent et pourquoi la plupart des "outils de productivité IA" échouent.

· 16 min read
Le système de filigrane IA de Google prétendument piraté. Voici ce que cela signifie
AI News

Le système de filigrane IA de Google prétendument piraté. Voici ce que cela signifie

Un développeur affirme avoir rétro-conçu le système de filigrane SynthID de Google DeepMind en utilisant un traitement de signal basique et 200 images. Google conteste l'affirmation, mais l'incident soulève des questions sur la fiabilité du filigrane comme défense contre l'utilisation abusive du contenu généré par l'IA.

· 4 min read

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies. No noise, only signal.

Follow Prompt Builder Prompt Builder