Skip to content
Learning Lab · 4 min read

Gestion de la fenêtre de contexte : Garder les longues conversations fonctionnelles

Les modèles se dégradent lorsque le contexte se remplit, même si les tokens sont présents. Découvrez trois stratégies éprouvées — résumé, fenêtres glissantes et RAG — pour maintenir la précision des longues conversations sans atteindre les limites de tokens.

Manage Long Conversations Without Token Loss

Votre conversation avec Claude atteint 80 000 tokens. Le modèle commence à se répéter. GPT-4o oublie soudainement le contexte des cinq messages précédents. Mistral 7B sur votre machine locale commence à halluciner des détails qui avaient été mentionnés précédemment.

Ce ne sont pas des échecs aléatoires. Ils sont symptomatiques d’une mauvaise gestion de la fenêtre de contexte — l’écart entre ce qu’un modèle peut théoriquement contenir et ce qu’il utilise réellement efficacement.

Comprendre les limites de la fenêtre de contexte (Et ce qu’elles signifient réellement)

Une fenêtre de contexte est la quantité de texte — mesurée en tokens — qu’un modèle peut prendre en compte lors de la génération d’une réponse. Claude 3.5 Sonnet prend en charge 200 000 tokens. GPT-4o prend en charge 128 000. Llama 3 70B prend en charge 8 000 dans sa version de base.

Mais avoir une fenêtre de 200 000 tokens ne signifie pas que vous devriez utiliser les 200 000 tokens pour votre conversation.

Les modèles performent moins bien sur les tâches lorsque la fenêtre se remplit — en particulier sur les tâches de récupération où ils doivent trouver des informations spécifiques enfouies dans le contexte antérieur. Les tests internes d’Anthropic montrent que la précision de Claude sur les tâches de récupération de type « aiguille dans une botte de foin » (trouver un fait spécifique dans un long document) diminue d’environ 5 à 7 % pour chaque 25 % de la fenêtre que vous remplissez. À 80 % de capacité, vous constatez une dégradation des performances en matière de rappel d’informations, même si les tokens rentrent encore.

La fenêtre pratique — où le modèle fonctionne de manière fiable — est généralement de 60 à 70 % du maximum théorique. Au-delà, la précision diminue sensiblement.

Les trois stratégies qui fonctionnent réellement

1. Résumé avant compression

Ne vous contentez pas de tronquer les anciens messages. Résumez-les.

Lorsque la conversation dépasse 40 000 tokens (pour Claude Sonnet) ou 30 000 tokens (pour GPT-4o), arrêtez-vous et créez un résumé de tout ce qui a été discuté jusqu’à présent. Cela sert deux objectifs : il préserve le sens sémantique sans l’encombrement des tokens, et il oblige le modèle à consolider sa propre compréhension.

# Mauvaise approche : ajouter simplement des messages
Utilisateur : [Message 1]
Assistant : [Réponse 1]
Utilisateur : [Message 2]
Assistant : [Réponse 2]
... répéter 50 fois ...
Utilisateur : [Message 51 - dépasse la fenêtre de contexte]

# Meilleure approche : résumer aux points de contrôle
Utilisateur : [Messages 1-10]
Assistant : [Réponse]
Utilisateur : Veuillez résumer notre conversation jusqu'à présent
Assistant : [Résumé de la discussion, décisions clés, contexte]

# Ajoutez maintenant de nouveaux messages au résumé, pas à l'historique complet
Contexte : [Résumé ci-dessus]
Utilisateur : [Message 11]
Assistant : [Réponse utilisant à la fois le résumé et le nouveau message]

Le résumé devient la nouvelle « base de contexte » pour les messages suivants. Vous avez compressé 10 messages en 200 à 400 tokens tout en conservant 95 % ou plus de la valeur sémantique.

2. Fenêtre glissante avec injection de contexte explicite

Pour les applications où vous ne pouvez pas faire de pause et résumer — comme un chatbot qui doit répondre en temps réel — utilisez une approche de fenêtre glissante. Gardez uniquement les N derniers messages dans le contexte actif, plus une instruction système fixe qui définit le style d’interaction.

# Instruction système (toujours incluse, compte comme contexte)
Vous êtes un conseiller technique. Lorsque l'utilisateur pose des questions sur le déploiement,
n'oubliez pas : nous utilisons AWS. Lorsque vous discutez des tests, faites référence à la
suite de tests existante dans la base de code.

# Fenêtre glissante : garder uniquement les 5 derniers messages
[Messages précédents supprimés]
Utilisateur : [Message N-4]
Assistant : [Réponse]
Utilisateur : [Message N-3]
Assistant : [Réponse]
Utilisateur : [Message N-2]
Assistant : [Réponse]
Utilisateur : [Message N-1]
Assistant : [Réponse]
Utilisateur : [Message N] <- entrant

# Utilisation des tokens : instruction système + 5 derniers messages
# Résultat : environ 4 000 à 6 000 tokens selon la longueur des messages

Le compromis est clair : vous perdez le contexte historique au-delà des 5 derniers messages, mais vous maintenez des performances constantes. Pour les cas d'utilisation où les utilisateurs ne font pas référence à des choses dites il y a 20 messages — support client, revue de code, conception itérative — cela fonctionne bien.

3. Contexte augmenté par récupération (Modèle RAG)

Si vous avez besoin d'accéder à l'ancien contexte sans tout garder dans la conversation, intégrez et indexez les messages ou documents précédents, puis récupérez uniquement ceux qui sont pertinents.

Au lieu de passer les 40 000 tokens complets de la conversation au modèle, vous :

  • Convertissez chaque message ou section en un embedding
  • Stockez les embeddings dans une base de données vectorielle (Pinecone, Weaviate, même SQLite avec extension vectorielle)
  • Lorsque l'utilisateur envoie un nouveau message, récupérez les 3 à 5 messages précédents les plus similaires
  • Injectez-les dans le contexte, avec le message actuel

Cela maintient votre fenêtre de contexte active à 5 000 à 8 000 tokens tout en donnant accès à un historique de conversation virtuellement illimité. Le modèle ne voit que ce qui est pertinent pour la requête actuelle.

# Pseudocode pour la gestion du contexte basé sur RAG
import anthropic
from embedding_service import embed_and_store, retrieve_similar

def chat_with_rag_context(user_message, conversation_id):
# Récupérer les messages passés similaires
similar_messages = retrieve_similar(
query=user_message,
conversation_id=conversation_id,
limit=4
)

# Construire la fenêtre de contexte
context =

Batikan
· 4 min read
Topics & Keywords
Learning Lab les utilisateur message contexte 000 tokens assistant réponse fenêtre messages des
Share

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies.

Related Articles

Créez des logos professionnels dans Midjourney : actifs de marque étape par étape
Learning Lab

Créez des logos professionnels dans Midjourney : actifs de marque étape par étape

Midjourney génère des concepts de logo en quelques secondes — mais les actifs de marque professionnels nécessitent des structures de prompt spécifiques, un raffinement itératif et une conversion vectorielle. Ce guide montre le flux de travail exact qui produit des logos prêts pour la production.

· 6 min read
Claude vs ChatGPT vs Gemini : Choisissez le bon LLM pour votre flux de travail
Learning Lab

Claude vs ChatGPT vs Gemini : Choisissez le bon LLM pour votre flux de travail

Claude, ChatGPT et Gemini excellent chacun dans des tâches différentes. Ce guide détaille les différences de performances réelles, les taux d'hallucination, les compromis de coûts et les flux de travail spécifiques où chaque modèle gagne, avec des prompts concrets que vous pouvez utiliser immédiatement.

· 6 min read
Créez votre premier agent IA sans code
Learning Lab

Créez votre premier agent IA sans code

Créez votre premier agent IA fonctionnel sans code ni connaissance des API. Apprenez les trois architectures d'agents, comparez les plateformes et suivez un exemple réel de gestion du triage d'e-mails et de recherche CRM, de la configuration au déploiement.

· 16 min read
Gestion de la fenêtre de contexte : traiter de longs documents sans perte de données
Learning Lab

Gestion de la fenêtre de contexte : traiter de longs documents sans perte de données

Les limites de la fenêtre de contexte cassent les systèmes d'IA en production. Découvrez trois techniques concrètes pour traiter de longs documents et conversations sans perdre de données ni alourdir les coûts des API.

· 5 min read
Construire des Agents IA : Architecture, Appels d’Outils et Gestion de la Mémoire
Learning Lab

Construire des Agents IA : Architecture, Appels d’Outils et Gestion de la Mémoire

Apprenez à construire des agents IA prêts pour la production en maîtrisant les contrats d'appel d'outils, en structurant correctement les boucles d'agents et en séparant la mémoire en couches de session, de connaissance et d'exécution. Inclut des exemples de code Python fonctionnels.

· 6 min read
Connectez les LLM à vos outils : mise en place d’une automatisation de flux de travail
Learning Lab

Connectez les LLM à vos outils : mise en place d’une automatisation de flux de travail

Connectez ChatGPT, Claude et Gemini à Slack, Notion et Sheets via des API et des plateformes d'automatisation. Découvrez les compromis entre les modèles, créez un bot Slack fonctionnel et automatisez votre premier flux de travail dès aujourd'hui.

· 6 min read

More from Prompt & Learn

Surfer vs Ahrefs AI vs SEMrush : Quel outil classe mieux votre contenu ?
AI Tools Directory

Surfer vs Ahrefs AI vs SEMrush : Quel outil classe mieux votre contenu ?

Trois outils SEO IA prétendent résoudre votre problème de classement : Surfer, Ahrefs AI et SEMrush. Chacun analyse différemment le contenu concurrent, ce qui conduit à des recommandations et des résultats différents. Voici ce qui fonctionne réellement, quand chaque outil échoue et lequel acheter en fonction des contraintes de votre équipe.

· 3 min read
Figma IA vs Canva IA vs Adobe Firefly : Comparatif des outils de design
AI Tools Directory

Figma IA vs Canva IA vs Adobe Firefly : Comparatif des outils de design

Figma IA, Canva IA et Adobe Firefly adoptent des approches différentes pour le design génératif. Figma privilégie l'intégration transparente ; Canva privilégie la vitesse ; Firefly privilégie la qualité des résultats. Voici quel outil correspond à votre flux de travail réel.

· 6 min read
DeepL ajoute la traduction vocale. Ce que cela change pour les équipes
AI Tools Directory

DeepL ajoute la traduction vocale. Ce que cela change pour les équipes

DeepL a annoncé la traduction vocale en temps réel pour Zoom et Microsoft Teams. Contrairement aux solutions existantes, elle s'appuie sur la force de DeepL en traduction textuelle — des modèles de traduction directe avec une latence réduite. Voici pourquoi c'est important et où cela échoue.

· 4 min read
10 outils IA gratuits qui sont rentables en 2026
AI Tools Directory

10 outils IA gratuits qui sont rentables en 2026

Dix outils IA gratuits qui remplacent réellement les SaaS payants en 2026 : Claude, Perplexity, Llama 3.2, DeepSeek R1, GitHub Copilot, OpenRouter, HuggingFace, Jina, Playwright et Mistral. Chacun testé dans des flux de travail réels avec des limites de débit réalistes, des benchmarks de précision et des comparaisons de coûts.

· 7 min read
Copilot vs Cursor vs Windsurf : Quel assistant de codage choisir en 2026 ?
AI Tools Directory

Copilot vs Cursor vs Windsurf : Quel assistant de codage choisir en 2026 ?

Trois assistants de codage dominent en 2026. Copilot reste sûr pour les entreprises. Cursor gagne en vitesse et précision pour la plupart des développeurs. Le mode agent de Windsurf exécute réellement le code pour éviter les hallucinations. Voici comment choisir.

· 5 min read
Les outils IA qui vous font gagner des heures chaque semaine
AI Tools Directory

Les outils IA qui vous font gagner des heures chaque semaine

J'ai testé 30 outils de productivité IA dans les domaines de l'écriture, du codage, de la recherche et des opérations. Seuls 8 ont permis de gagner un temps mesurable. Voici quels outils ont un ROI réel, les flux de travail où ils excellent et pourquoi la plupart des "outils de productivité IA" échouent.

· 16 min read

Stay ahead of the AI curve

Weekly digest of the most impactful AI breakthroughs, tools, and strategies. No noise, only signal.

Follow Prompt Builder Prompt Builder