Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Modèles et tarification
    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.6Guide de migrationDépréciation des modèlesTarification
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesGérer les raisons d'arrêtBonnes pratiques de prompting
    Capacités du modèle
    Extended thinkingAdaptive thinkingEffortMode rapide (aperçu de recherche)Sorties structuréesCitationsStreaming de messagesTraitement par lotsSupport PDFRésultats de rechercheSupport multilingueEmbeddingsVision
    Outils
    AperçuComment implémenter l'utilisation d'outilsOutil de recherche webOutil de récupération webOutil d'exécution de codeOutil de mémoireOutil BashOutil Computer useOutil d'éditeur de texte
    Infrastructure d'outils
    Recherche d'outilsAppel d'outils programmatiqueStreaming d'outils à granularité fine
    Gestion du contexte
    Fenêtres de contexteCompactionÉdition du contexteMise en cache des promptsComptage des tokens
    Fichiers et ressources
    API Files
    Agent Skills
    AperçuDémarrage rapideBonnes pratiquesSkills pour l'entrepriseUtiliser Skills avec l'API
    Agent SDK
    AperçuDémarrage rapideSDK TypeScriptTypeScript V2 (aperçu)SDK PythonGuide de migration
    MCP dans l'API
    Connecteur MCPServeurs MCP distants
    Claude sur des plateformes tierces
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingénierie des prompts
    AperçuGénérateur de promptsUtiliser des modèles de promptsAméliorateur de promptsÊtre clair et directUtiliser des exemples (prompting multi-shots)Laisser Claude réfléchir (CoT)Utiliser des balises XMLDonner un rôle à Claude (prompts système)Chaîner des prompts complexesConseils pour le contexte longConseils pour extended thinking
    Tester et évaluer
    Définir les critères de succèsDévelopper des cas de testUtiliser l'outil d'évaluationRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRefus en streamingRéduire les fuites de promptsGarder Claude dans le rôle
    Administration et surveillance
    Aperçu de l'API AdminRésidence des donnéesEspaces de travailAPI d'utilisation et de coûtsAPI Claude Code AnalyticsZéro rétention de données
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Capacités du modèle

    Pensée adaptative

    Laissez Claude décider dynamiquement quand et combien penser avec le mode de pensée adaptative.

    Was this page helpful?

    • Modèles supportés
    • Comment fonctionne la pensée adaptative
    • Comment utiliser la pensée adaptative
    • Pensée adaptative avec le paramètre effort
    • Streaming avec pensée adaptative
    • Pensée adaptative vs manuelle vs désactivée
    • Considérations importantes
    • Changements de validation
    • Mise en cache des invites
    • Ajustement du comportement de pensée
    • Contrôle des coûts
    • Travailler avec les blocs de pensée
    • Pensée résumée
    • Chiffrement de la pensée
    • Tarification
    • Sujets supplémentaires
    • Prochaines étapes

    La pensée adaptative est la façon recommandée d'utiliser la pensée étendue avec Claude Opus 4.6. Au lieu de définir manuellement un budget de jetons de pensée, la pensée adaptative permet à Claude de décider dynamiquement quand et combien penser en fonction de la complexité de chaque demande.

    La pensée adaptative produit de manière fiable de meilleures performances que la pensée étendue avec un budget_tokens fixe, et nous recommandons de passer à la pensée adaptative pour obtenir les réponses les plus intelligentes d'Opus 4.6. Aucun en-tête bêta n'est requis.

    Modèles supportés

    La pensée adaptative est supportée sur les modèles suivants :

    • Claude Opus 4.6 (claude-opus-4-6)

    thinking.type: "enabled" et budget_tokens sont dépréciés sur Opus 4.6 et seront supprimés dans une future version du modèle. Utilisez thinking.type: "adaptive" avec le paramètre effort à la place.

    Les anciens modèles (Sonnet 4.5, Opus 4.5, etc.) ne supportent pas la pensée adaptative et nécessitent thinking.type: "enabled" avec budget_tokens.

    Comment fonctionne la pensée adaptative

    En mode adaptatif, la pensée est optionnelle pour le modèle. Claude évalue la complexité de chaque demande et décide s'il doit penser et combien. Au niveau d'effort par défaut (high), Claude pensera presque toujours. Aux niveaux d'effort inférieurs, Claude peut ignorer la pensée pour les problèmes plus simples.

    La pensée adaptative active également automatiquement la pensée entrelacée. Cela signifie que Claude peut penser entre les appels d'outils, ce qui la rend particulièrement efficace pour les flux de travail agentiques.

    Comment utiliser la pensée adaptative

    Définissez thinking.type sur "adaptive" dans votre demande API :

    Pensée adaptative avec le paramètre effort

    Vous pouvez combiner la pensée adaptative avec le paramètre effort pour guider la quantité de pensée que Claude fait. Le niveau d'effort agit comme une orientation douce pour l'allocation de pensée de Claude :

    Niveau d'effortComportement de pensée
    maxClaude pense toujours sans contraintes sur la profondeur de pensée. Opus 4.6 uniquement — les demandes utilisant max sur d'autres modèles retourneront une erreur.
    high (par défaut)Claude pense toujours. Fournit un raisonnement profond sur les tâches complexes.
    mediumClaude utilise une pensée modérée. Peut ignorer la pensée pour les requêtes très simples.
    lowClaude minimise la pensée. Ignore la pensée pour les tâches simples où la vitesse est la priorité.

    Streaming avec pensée adaptative

    La pensée adaptative fonctionne de manière transparente avec le streaming. Les blocs de pensée sont diffusés via les événements thinking_delta tout comme le mode de pensée manuel :

    Pensée adaptative vs manuelle vs désactivée

    ModeConfigDisponibilitéQuand l'utiliser
    Adaptativethinking: {type: "adaptive"}Opus 4.6Claude décide quand et combien penser. Utilisez effort pour guider.
    Manuellethinking: {type: "enabled", budget_tokens: N}Tous les modèles. Dépréciée sur Opus 4.6 — utilisez le mode adaptatif à la place.Quand vous avez besoin d'un contrôle précis sur les dépenses de jetons de pensée.
    DésactivéeOmettez le paramètre thinkingTous les modèlesQuand vous n'avez pas besoin de pensée étendue et voulez la latence la plus basse.

    La pensée adaptative est actuellement disponible sur Opus 4.6. Les anciens modèles ne supportent que type: "enabled" avec budget_tokens. Sur Opus 4.6, type: "enabled" avec budget_tokens est toujours accepté mais déprécié — nous recommandons d'utiliser la pensée adaptative avec le paramètre effort à la place.

    Considérations importantes

    Changements de validation

    Lors de l'utilisation de la pensée adaptative, les tours d'assistant précédents n'ont pas besoin de commencer par des blocs de pensée. C'est plus flexible que le mode manuel, où l'API impose que les tours avec pensée activée commencent par un bloc de pensée.

    Mise en cache des invites

    Les demandes consécutives utilisant la pensée adaptive préservent les points d'arrêt du cache d'invite. Cependant, basculer entre les modes de pensée adaptive et enabled/disabled casse les points d'arrêt du cache pour les messages. Les invites système et les définitions d'outils restent en cache indépendamment des changements de mode.

    Ajustement du comportement de pensée

    Le comportement de déclenchement de la pensée adaptative est invitable. Si Claude pense plus ou moins souvent que vous le souhaitez, vous pouvez ajouter des conseils à votre invite système :

    Extended thinking adds latency and should only be used when it
    will meaningfully improve answer quality — typically for problems
    that require multi-step reasoning. When in doubt, respond directly.

    Diriger Claude à penser moins souvent peut réduire la qualité sur les tâches qui bénéficient du raisonnement. Mesurez l'impact sur vos charges de travail spécifiques avant de déployer l'ajustement basé sur les invites en production. Envisagez de tester d'abord avec des niveaux d'effort inférieurs.

    Contrôle des coûts

    Utilisez max_tokens comme limite stricte sur la sortie totale (pensée + texte de réponse). Le paramètre effort fournit une orientation douce supplémentaire sur la quantité de pensée que Claude alloue. Ensemble, ces éléments vous donnent un contrôle efficace sur les coûts.

    Aux niveaux d'effort high et max, Claude peut penser plus extensivement et peut être plus susceptible d'épuiser le budget max_tokens. Si vous observez stop_reason: "max_tokens" dans les réponses, envisagez d'augmenter max_tokens pour donner plus d'espace au modèle, ou baissez le niveau d'effort.

    Travailler avec les blocs de pensée

    Les concepts suivants s'appliquent à tous les modèles qui supportent la pensée étendue, que vous utilisiez le mode adaptatif ou manuel.

    Pensée résumée

    With extended thinking enabled, the Messages API for Claude 4 models returns a summary of Claude's full thinking process. Summarized thinking provides the full intelligence benefits of extended thinking, while preventing misuse. This is the default behavior when the display field on the thinking configuration is unset or set to "summarized".

    Here are some important considerations for summarized thinking:

    • You're charged for the full thinking tokens generated by the original request, not the summary tokens.
    • The billed output token count will not match the count of tokens you see in the response.
    • The first few lines of thinking output are more verbose, providing detailed reasoning that's particularly helpful for prompt engineering purposes.
    • As Anthropic seeks to improve the extended thinking feature, summarization behavior is subject to change.
    • Summarization preserves the key ideas of Claude's thinking process with minimal added latency, enabling a streamable user experience and easy migration from Claude Sonnet 3.7 to Claude 4 and later models.
    • Summarization is processed by a different model than the one you target in your requests. The thinking model does not see the summarized output.

    Claude Sonnet 3.7 continues to return full thinking output.

    In rare cases where you need access to full thinking output for Claude 4 models, contact our sales team.

    Chiffrement de la pensée

    Full thinking content is encrypted and returned in the signature field. This field is used to verify that thinking blocks were generated by Claude when passed back to the API.

    It is only strictly necessary to send back thinking blocks when using tools with extended thinking. Otherwise you can omit thinking blocks from previous turns, or let the API strip them for you if you pass them back.

    If sending back thinking blocks, we recommend passing everything back as you received it for consistency and to avoid potential issues.

    Here are some important considerations on thinking encryption:

    • When streaming responses, the signature is added via a signature_delta inside a content_block_delta event just before the content_block_stop event.
    • signature values are significantly longer in Claude 4 models than in previous models.
    • The signature field is an opaque field and should not be interpreted or parsed.
    • signature values are compatible across platforms (Claude APIs, Amazon Bedrock, and Vertex AI). Values generated on one platform will be compatible with another.

    Tarification

    For complete pricing information including base rates, cache writes, cache hits, and output tokens, see the pricing page.

    The thinking process incurs charges for:

    • Tokens used during thinking (output tokens)
    • Thinking blocks from the last assistant turn included in subsequent requests (input tokens)
    • Standard text output tokens

    When extended thinking is enabled, a specialized system prompt is automatically included to support this feature.

    When using summarized thinking:

    • Input tokens: Tokens in your original request (excludes thinking tokens from previous turns)
    • Output tokens (billed): The original thinking tokens that Claude generated internally
    • Output tokens (visible): The summarized thinking tokens you see in the response
    • No charge: Tokens used to generate the summary

    When using display: "omitted":

    • Input tokens: Tokens in your original request (same as summarized)
    • Output tokens (billed): The original thinking tokens that Claude generated internally (same as summarized)
    • Output tokens (visible): Zero thinking tokens (the thinking field is empty)

    The billed output token count will not match the visible token count in the response. You are billed for the full thinking process, not the thinking content visible in the response.

    Sujets supplémentaires

    La page de pensée étendue couvre plusieurs sujets en plus de détail avec des exemples de code spécifiques au mode :

    • Utilisation d'outils avec pensée : Les mêmes règles s'appliquent pour la pensée adaptative — préservez les blocs de pensée entre les appels d'outils et soyez conscient des limitations de tool_choice quand la pensée est active.
    • Mise en cache des invites : Avec la pensée adaptative, les demandes consécutives utilisant le même mode de pensée préservent les points d'arrêt du cache. Basculer entre les modes adaptive et enabled/disabled casse les points d'arrêt du cache pour les messages (les invites système et les définitions d'outils restent en cache).
    • Fenêtres de contexte : Comment les jetons de pensée interagissent avec max_tokens et les limites de la fenêtre de contexte.

    Prochaines étapes

    Pensée étendue
    curl https://api.anthropic.com/v1/messages \
         --header "x-api-key: $ANTHROPIC_API_KEY" \
         --header "anthropic-version: 2023-06-01" \
         --header "content-type: application/json" \
         --data \
    '{
        "model": "claude-opus-4-6",
        "max_tokens": 16000,
        "thinking": {
            "type": "adaptive"
        },
        "messages": [
            {
                "role": "user",
                "content": "Explain why the sum of two even numbers is always even."
            }
        ]
    }'
    import anthropic
    
    client = anthropic.Anthropic()
    
    response = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=16000,
        thinking={
            "type": "adaptive"
        },
        output_config={
            "effort": "medium"
        },
        messages=[{
            "role": "user",
            "content": "What is the capital of France?"
        }]
    )
    
    print(response.content[0].text)
    import anthropic
    
    client = anthropic.Anthropic()
    
    with client.messages.stream(
        model="claude-opus-4-6",
        max_tokens=16000,
        thinking={"type": "adaptive"},
        messages=[{"role": "user", "content": "What is the greatest common divisor of 1071 and 462?"}],
    ) as stream:
        for event in stream:
            if event.type == "content_block_start":
                print(f"\nStarting {event.content_block.type} block...")
            elif event.type == "content_block_delta":
                if event.delta.type == "thinking_delta":
                    print(event.delta.thinking, end="", flush=True)
                elif event.delta.type == "text_delta":
                    print(event.delta.text, end="", flush=True)

    En savoir plus sur la pensée étendue, y compris le mode manuel, l'utilisation d'outils et la mise en cache des invites.

    Paramètre effort

    Contrôlez la façon dont Claude répond en détail avec le paramètre effort.