À mesure que les conversations s'allongent, vous finirez par approcher les limites de la fenêtre de contexte. Ce guide explique comment fonctionnent les fenêtres de contexte et présente des stratégies pour les gérer efficacement.
Pour les conversations longues et les flux de travail agentiques, la compaction côté serveur est la stratégie principale pour la gestion du contexte. Pour des besoins plus spécialisés, l'édition de contexte offre des stratégies supplémentaires comme l'effacement des résultats d'outils et l'effacement des blocs de réflexion.
La « fenêtre de contexte » fait référence à tout le texte qu'un modèle de langage peut référencer lors de la génération d'une réponse, y compris la réponse elle-même. Ceci est différent du grand corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une « mémoire de travail » pour le modèle. Une fenêtre de contexte plus grande permet au modèle de gérer des invites plus complexes et plus longues. Une fenêtre de contexte plus petite peut limiter la capacité du modèle à maintenir la cohérence sur des conversations prolongées.
Le diagramme ci-dessous illustre le comportement standard de la fenêtre de contexte pour les demandes d'API1 :
1Pour les interfaces de chat, comme pour claude.ai, les fenêtres de contexte peuvent également être configurées sur un système roulant « premier entré, premier sorti ».
Lors de l'utilisation de la réflexion étendue, tous les jetons d'entrée et de sortie, y compris les jetons utilisés pour la réflexion, comptent vers la limite de la fenêtre de contexte, avec quelques nuances dans les situations multi-tours.
Les jetons du budget de réflexion sont un sous-ensemble de votre paramètre max_tokens, sont facturés comme des jetons de sortie et comptent vers les limites de débit. Avec la réflexion adaptative, Claude décide dynamiquement son allocation de réflexion, donc l'utilisation réelle des jetons de réflexion peut varier par demande.
Cependant, les blocs de réflexion précédents sont automatiquement supprimés du calcul de la fenêtre de contexte par l'API Claude et ne font pas partie de l'historique des conversations que le modèle « voit » pour les tours suivants, préservant la capacité des jetons pour le contenu réel de la conversation.
Le diagramme ci-dessous démontre la gestion spécialisée des jetons lorsque la réflexion étendue est activée :
context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens.thinking et les blocs redacted_thinking.Cette architecture est efficace en jetons et permet un raisonnement étendu sans gaspillage de jetons, car les blocs de réflexion peuvent être substantiels en longueur.
Vous pouvez en savoir plus sur la fenêtre de contexte et la réflexion étendue dans le guide de réflexion étendue.
Le diagramme ci-dessous illustre la gestion des jetons de la fenêtre de contexte lors de la combinaison de la réflexion étendue avec l'utilisation d'outils :
Architecture du premier tour
Gestion des résultats d'outils (tour 2)
tool_result. Le bloc de réflexion étendue doit être renvoyé avec les résultats d'outils correspondants. C'est le seul cas où vous devez renvoyer les blocs de réflexion.user).Troisième étape
User.User en dehors du cycle d'utilisation d'outils, Claude générera un nouveau bloc de réflexion étendue et continuera à partir de là.Assistant actuel compte comme partie de la fenêtre de contexte.context_window = input_tokens + current_turn_tokens.Les modèles Claude 4 supportent la réflexion entrelacée, qui permet à Claude de réfléchir entre les appels d'outils et de faire un raisonnement plus sophistiqué après avoir reçu les résultats d'outils.
Claude Sonnet 3.7 ne supporte pas la réflexion entrelacée, donc il n'y a pas d'entrelacement de la réflexion étendue et des appels d'outils sans un tour utilisateur non-tool_result entre les deux.
Pour plus d'informations sur l'utilisation d'outils avec la réflexion étendue, consultez le guide de réflexion étendue.
Claude Opus 4.6, Sonnet 4.5 et Sonnet 4 supportent une fenêtre de contexte de 1 million de jetons. Cette fenêtre de contexte étendue vous permet de traiter des documents beaucoup plus volumineux, de maintenir des conversations plus longues et de travailler avec des bases de code plus étendues.
La fenêtre de contexte de 1M jetons est actuellement en bêta pour les organisations au niveau d'utilisation 4 et les organisations avec des limites de débit personnalisées. La fenêtre de contexte de 1M jetons n'est disponible que pour Claude Opus 4.6, Sonnet 4.5 et Sonnet 4.
Pour utiliser la fenêtre de contexte de 1M jetons, incluez l'en-tête bêta context-1m-2025-08-07 dans vos demandes d'API :
curl https://api.anthropic.com/v1/messages \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "anthropic-beta: context-1m-2025-08-07" \
-H "content-type: application/json" \
-d '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "Process this large document..."}
]
}'Considérations importantes :
Claude Sonnet 4.5 et Claude Haiku 4.5 disposent de la conscience du contexte. Cette capacité permet à ces modèles de suivre leur fenêtre de contexte restante (c'est-à-dire le « budget de jetons ») tout au long d'une conversation. Cela permet à Claude d'exécuter des tâches et de gérer le contexte plus efficacement en comprenant l'espace dont il dispose. Claude est entraîné à utiliser ce contexte avec précision, persévérant dans la tâche jusqu'à la toute fin plutôt que de deviner combien de jetons restent. Pour un modèle, manquer de conscience du contexte, c'est comme participer à un concours culinaire sans horloge. Les modèles Claude 4.5 changent cela en informant explicitement le modèle de son contexte restant, afin qu'il puisse tirer le maximum parti des jetons disponibles.
Comment cela fonctionne :
Au début d'une conversation, Claude reçoit des informations sur sa fenêtre de contexte totale :
<budget:token_budget>200000</budget:token_budget>Le budget est défini à 200K jetons (standard), 500K jetons (claude.ai Enterprise) ou 1M jetons (bêta, pour les organisations éligibles).
Après chaque appel d'outil, Claude reçoit une mise à jour sur la capacité restante :
<system_warning>Token usage: 35000/200000; 165000 remaining</system_warning>Cette conscience aide Claude à déterminer la capacité restante pour le travail et permet une exécution plus efficace sur les tâches longues. Les jetons d'image sont inclus dans ces budgets.
Avantages :
La conscience du contexte est particulièrement précieuse pour :
Pour des conseils de suggestion sur la façon de tirer parti de la conscience du contexte, consultez le guide des meilleures pratiques de suggestion.
Si vos conversations approchent régulièrement les limites de la fenêtre de contexte, la compaction côté serveur est l'approche recommandée. La compaction fournit une résumé côté serveur qui condense automatiquement les parties antérieures d'une conversation, permettant les conversations longues au-delà des limites de contexte avec un travail d'intégration minimal. Elle est actuellement disponible en bêta pour Claude Opus 4.6.
Pour des besoins plus spécialisés, l'édition de contexte offre des stratégies supplémentaires :
Les modèles Claude plus récents (à partir de Claude Sonnet 3.7) retournent une erreur de validation lorsque les jetons d'invite et de sortie dépassent la fenêtre de contexte, plutôt que de tronquer silencieusement. Ce changement fournit un comportement plus prévisible mais nécessite une gestion plus minutieuse des jetons.
Utilisez l'API de comptage des jetons pour estimer l'utilisation des jetons avant d'envoyer des messages à Claude. Cela vous aide à planifier et à rester dans les limites de la fenêtre de contexte.
Consultez le tableau de comparaison des modèles pour une liste des tailles de fenêtre de contexte par modèle.
La stratégie recommandée pour gérer le contexte dans les conversations longues.
Des stratégies granulaires comme l'effacement des résultats d'outils et l'effacement des blocs de réflexion.
Consultez le tableau de comparaison des modèles pour une liste des tailles de fenêtre de contexte et des tarifs des jetons d'entrée/sortie par modèle.
En savoir plus sur le fonctionnement de la réflexion étendue et comment l'implémenter aux côtés d'autres fonctionnalités telles que l'utilisation d'outils et la mise en cache des invites.
Was this page helpful?