Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Modèles et tarification
    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.6Guide de migrationDépréciation des modèlesTarification
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesGérer les raisons d'arrêtMeilleures pratiques de prompting
    Gestion du contexte
    Fenêtres de contexteCompactionÉdition du contexte
    Capacités
    Mise en cache des promptsRéflexion étendueRéflexion adaptativeEffortStreaming de messagesTraitement par lotsCitationsSupport multilingueComptage des tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheSorties structurées
    Outils
    AperçuComment implémenter l'utilisation d'outilsStreaming d'outils granulaireOutil BashOutil d'exécution de codeAppel d'outils programmatiqueOutil Computer useOutil Éditeur de texteOutil Web fetchOutil Web searchOutil MémoireOutil Tool search
    Compétences d'agent
    AperçuDémarrage rapideMeilleures pratiquesCompétences pour l'entrepriseUtiliser les compétences avec l'API
    SDK Agent
    AperçuDémarrage rapideSDK TypeScriptTypeScript V2 (aperçu)SDK PythonGuide de migration
    MCP dans l'API
    Connecteur MCPServeurs MCP distants
    Claude sur les plateformes tierces
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingénierie des prompts
    AperçuGénérateur de promptsUtiliser les modèles de promptsAméliorateur de promptsÊtre clair et directUtiliser des exemples (prompting multi-coups)Laisser Claude réfléchir (CoT)Utiliser les balises XMLDonner un rôle à Claude (prompts système)Enchaîner les prompts complexesConseils pour le contexte longConseils pour la réflexion étendue
    Tester et évaluer
    Définir les critères de succèsDévelopper des cas de testUtiliser l'outil d'évaluationRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRefus en streamingRéduire les fuites de promptsGarder Claude dans le rôle
    Administration et surveillance
    Aperçu de l'API AdminRésidence des donnéesEspaces de travailAPI d'utilisation et de coûtsAPI Claude Code AnalyticsRétention zéro des données
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Administration et surveillance

    Résidence des données

    Gérez où l'inférence du modèle s'exécute et où les données sont stockées avec des contrôles géographiques.

    Les contrôles de résidence des données vous permettent de gérer où vos données sont traitées et stockées. Deux paramètres indépendants régissent ceci :

    • Géographie de l'inférence : Contrôle où l'inférence du modèle s'exécute, sur la base de chaque demande. Défini via le paramètre API inference_geo ou comme valeur par défaut de l'espace de travail.
    • Géographie de l'espace de travail : Contrôle où les données sont stockées au repos et où le traitement des points de terminaison (transcodage d'images, exécution de code, etc.) se produit. Configuré au niveau de l'espace de travail dans la Console.

    Géographie de l'inférence

    Le paramètre inference_geo contrôle où l'inférence du modèle s'exécute pour une demande API spécifique. Ajoutez-le à n'importe quel appel POST /v1/messages.

    ValeurDescription
    "global"Par défaut. L'inférence peut s'exécuter dans n'importe quelle géographie disponible pour des performances et une disponibilité optimales.

    Was this page helpful?

    • Géographie de l'inférence
    • Utilisation de l'API
    • Réponse
    • Disponibilité du modèle
    • Restrictions au niveau de l'espace de travail
    • Géographie de l'espace de travail
    • Tarification
    • Support de l'API Batch
    • Migration depuis les exclusions héritées
    • Ce qui a changé
    • Ce qui s'est passé avec votre espace de travail
    • Si vous souhaitez utiliser le routage global
    • Impact sur la tarification
    • Limitations actuelles
    • Prochaines étapes
    "us"
    L'inférence s'exécute uniquement sur l'infrastructure basée aux États-Unis.

    Utilisation de l'API

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "inference_geo": "us",
            "messages": [{
                "role": "user",
                "content": "Summarize the key points of this document."
            }]
        }'

    Réponse

    L'objet usage de la réponse inclut un champ inference_geo indiquant où l'inférence s'est exécutée :

    {
      "usage": {
        "input_tokens": 25,
        "output_tokens": 150,
        "inference_geo": "us"
      }
    }

    Disponibilité du modèle

    Le paramètre inference_geo est pris en charge sur Claude Opus 4.6 et tous les modèles ultérieurs. Les modèles plus anciens publiés avant Opus 4.6 ne prennent pas en charge le paramètre. Les demandes avec inference_geo sur les modèles hérités retournent une erreur 400.

    Le paramètre inference_geo n'est disponible que sur l'API Claude (1P). Sur les plateformes tierces (AWS Bedrock, Google Vertex AI), la région d'inférence est déterminée par l'URL du point de terminaison ou le profil d'inférence, donc inference_geo n'est pas applicable. Le paramètre inference_geo n'est pas non plus disponible via le point de terminaison de compatibilité du SDK OpenAI.

    Restrictions au niveau de l'espace de travail

    Les paramètres de l'espace de travail prennent également en charge la restriction des géographies d'inférence disponibles :

    • allowed_inference_geos : Restreint les géographies qu'un espace de travail peut utiliser. Si une demande spécifie un inference_geo qui ne figure pas dans cette liste, l'API retourne une erreur.
    • default_inference_geo : Définit la géographie de secours lorsque inference_geo est omis d'une demande. Les demandes individuelles peuvent remplacer cela en définissant inference_geo explicitement.

    Ces paramètres peuvent être configurés via la Console ou l'API Admin sous le champ data_residency.

    Géographie de l'espace de travail

    La géographie de l'espace de travail est définie lors de la création d'un espace de travail et ne peut pas être modifiée par la suite. Actuellement, "us" est la seule géographie d'espace de travail disponible.

    Pour définir la géographie de l'espace de travail, créez un nouvel espace de travail dans la Console :

    1. Allez à Paramètres > Espaces de travail.
    2. Créez un nouvel espace de travail.
    3. Sélectionnez la géographie de l'espace de travail.

    Tarification

    La tarification de la résidence des données varie selon la génération du modèle :

    • Claude Opus 4.6 et plus récent : L'inférence réservée aux États-Unis (inference_geo: "us") est facturée à 1,1x le taux standard dans toutes les catégories de tarification des jetons (jetons d'entrée, jetons de sortie, écritures de cache et lectures de cache).
    • Routage global (inference_geo: "global" ou omis) : La tarification standard s'applique.
    • Modèles plus anciens : La tarification existante reste inchangée quel que soit les paramètres inference_geo.

    Cette tarification s'applique uniquement à l'API Claude (1P). Les plateformes tierces (AWS Bedrock, Google Vertex AI, Microsoft Foundry) ont leur propre tarification régionale. Consultez la page de tarification pour plus de détails.

    Si vous utilisez Priority Tier, le multiplicateur 1,1x pour l'inférence réservée aux États-Unis affecte également la façon dont les jetons sont comptabilisés par rapport à votre capacité Priority Tier. Chaque jeton consommé avec inference_geo: "us" réduit 1,1 jetons de votre TPM engagé, conformément à la façon dont d'autres multiplicateurs de tarification (mise en cache des invites, contexte long) affectent les taux de consommation.

    Support de l'API Batch

    Le paramètre inference_geo est pris en charge sur l'API Batch. Chaque demande dans un lot peut spécifier sa propre valeur inference_geo.

    Migration depuis les exclusions héritées

    Si votre organisation s'était précédemment exclue du routage global pour maintenir l'inférence aux États-Unis, votre espace de travail a été automatiquement configuré avec allowed_inference_geos: ["us"] et default_inference_geo: "us". Aucune modification du code n'est requise. Vos exigences existantes en matière de résidence des données continuent d'être appliquées via les nouveaux contrôles géographiques.

    Ce qui a changé

    L'exclusion héritée était un paramètre au niveau de l'organisation qui restreignait toutes les demandes à l'infrastructure basée aux États-Unis. Les nouveaux contrôles de résidence des données remplacent cela par deux mécanismes :

    • Contrôle par demande : Le paramètre inference_geo vous permet de spécifier "us" ou "global" sur chaque appel API, vous donnant une flexibilité au niveau de la demande.
    • Contrôles de l'espace de travail : Les paramètres default_inference_geo et allowed_inference_geos dans la Console vous permettent d'appliquer des politiques géographiques sur toutes les clés d'un espace de travail.

    Ce qui s'est passé avec votre espace de travail

    Votre espace de travail a été migré automatiquement :

    Paramètre héritéÉquivalent nouveau
    Exclusion du routage global (États-Unis uniquement)allowed_inference_geos: ["us"], default_inference_geo: "us"

    Toutes les demandes API utilisant des clés de votre espace de travail continuent de s'exécuter sur l'infrastructure basée aux États-Unis. Aucune action n'est nécessaire pour maintenir votre comportement actuel.

    Si vous souhaitez utiliser le routage global

    Si vos exigences en matière de résidence des données ont changé et que vous souhaitez profiter du routage global pour de meilleures performances et disponibilité, mettez à jour les paramètres de géographie d'inférence de votre espace de travail pour inclure "global" dans les géographies autorisées et définissez default_inference_geo sur "global". Consultez Restrictions au niveau de l'espace de travail pour plus de détails.

    Impact sur la tarification

    Les modèles hérités ne sont pas affectés par cette migration. Pour la tarification actuelle sur les modèles plus récents, consultez Tarification.

    Limitations actuelles

    • Limites de débit partagées : Les limites de débit sont partagées entre toutes les géographies.
    • Géographie de l'inférence : Seuls "us" et "global" sont disponibles au lancement. Des régions supplémentaires seront ajoutées au fil du temps.
    • Géographie de l'espace de travail : Seul "us" est actuellement disponible. La géographie de l'espace de travail ne peut pas être modifiée après la création de l'espace de travail.

    Prochaines étapes

    Tarification

    Consultez les détails de tarification de la résidence des données.

    Espaces de travail

    En savoir plus sur la configuration de l'espace de travail.

    API d'utilisation et de coûts

    Suivez l'utilisation et les coûts par résidence des données.