Loading...
  • Construire
  • Admin
  • Modèles & tarification
  • SDKs clients
  • Référence API
Search...
⌘K
Log in
Résidence des données
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
Admin/Administration

Résidence des données

Gérez où l'inférence du modèle s'exécute et où les données sont stockées avec des contrôles géographiques.

This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.

Les contrôles de résidence des données vous permettent de gérer où vos données sont traitées et stockées. Deux paramètres indépendants régissent ceci :

  • Géographie de l'inférence : Contrôle où l'inférence du modèle s'exécute, sur la base de chaque demande. Défini via le paramètre API inference_geo ou comme valeur par défaut de l'espace de travail.
  • Géographie de l'espace de travail : Contrôle où les données sont stockées au repos et où le traitement des points de terminaison (transcodage d'images, exécution de code, etc.) se produit. Configuré au niveau de l'espace de travail dans la Console.

Géographie de l'inférence

Le paramètre inference_geo contrôle où l'inférence du modèle s'exécute pour une demande API spécifique. Ajoutez-le à n'importe quel appel POST /v1/messages.

ValeurDescription
"global"Par défaut. L'inférence peut s'exécuter dans n'importe quelle géographie disponible pour des performances et une disponibilité optimales.
"us"L'inférence s'exécute uniquement sur l'infrastructure basée aux États-Unis.

Utilisation de l'API

client = anthropic.Anthropic()

response = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=1024,
    inference_geo="us",
    messages=[
        {"role": "user", "content": "Summarize the key points of this document."}
    ],
)

print(response.content[0].text)
# Check where inference actually ran
print(f"Inference geo: {response.usage.inference_geo}")

Réponse

L'objet usage de la réponse inclut un champ inference_geo indiquant où l'inférence s'est exécutée :

Output
{
  "usage": {
    "input_tokens": 25,
    "output_tokens": 150,
    "inference_geo": "us"
  }
}

Disponibilité du modèle

Le paramètre inference_geo est pris en charge sur Claude Opus 4.6 et tous les modèles ultérieurs. Les modèles plus anciens publiés avant Opus 4.6 ne prennent pas en charge le paramètre. Les demandes avec inference_geo sur les modèles hérités retournent une erreur 400.

Le paramètre inference_geo n'est disponible que sur l'API Claude (1P). Sur les plateformes tierces (AWS Bedrock, Google Vertex AI), la région d'inférence est déterminée par l'URL du point de terminaison ou le profil d'inférence, donc inference_geo n'est pas applicable. Le paramètre inference_geo n'est pas non plus disponible via le point de terminaison de compatibilité du SDK OpenAI.

Restrictions au niveau de l'espace de travail

Les paramètres de l'espace de travail prennent également en charge la restriction des géographies d'inférence disponibles :

  • allowed_inference_geos : Restreint les géographies qu'un espace de travail peut utiliser. Si une demande spécifie un inference_geo ne figurant pas dans cette liste, l'API retourne une erreur.
  • default_inference_geo : Définit la géographie de secours lorsque inference_geo est omis d'une demande. Les demandes individuelles peuvent remplacer cela en définissant inference_geo explicitement.

Ces paramètres peuvent être configurés via la Console ou l'API Admin sous le champ data_residency.

Géographie de l'espace de travail

La géographie de l'espace de travail est définie lors de la création d'un espace de travail et ne peut pas être modifiée par la suite. Actuellement, "us" est la seule géographie d'espace de travail disponible.

Pour définir la géographie de l'espace de travail, créez un nouvel espace de travail dans la Console :

  1. Allez à Paramètres > Espaces de travail.
  2. Créez un nouvel espace de travail.
  3. Sélectionnez la géographie de l'espace de travail.

Tarification

La tarification de la résidence des données varie selon la génération du modèle :

  • Claude Opus 4.6 et plus récent : L'inférence réservée aux États-Unis (inference_geo: "us") est facturée à 1,1x le tarif standard dans toutes les catégories de tarification des jetons (jetons d'entrée, jetons de sortie, écritures en cache et lectures en cache).
  • Routage global (inference_geo: "global" ou omis) : La tarification standard s'applique.
  • Modèles plus anciens : La tarification existante reste inchangée indépendamment des paramètres inference_geo.

Cette tarification s'applique uniquement à l'API Claude (1P). Les plateformes tierces (AWS Bedrock, Google Vertex AI) ont leur propre tarification régionale. Consultez la page de tarification pour plus de détails.

Si vous utilisez Priority Tier, le multiplicateur 1,1x pour l'inférence réservée aux États-Unis affecte également la façon dont les jetons sont comptabilisés par rapport à votre capacité Priority Tier. Chaque jeton consommé avec inference_geo: "us" réduit 1,1 jetons de votre TPM engagé, conformément à la façon dont d'autres multiplicateurs de tarification (comme la mise en cache des invites) affectent les taux de consommation.

Support de l'API Batch

Le paramètre inference_geo est pris en charge sur l'API Batch. Chaque demande dans un lot peut spécifier sa propre valeur inference_geo.

Migration à partir des exclusions héritées

Si votre organisation s'était précédemment exclue du routage global pour maintenir l'inférence aux États-Unis, votre espace de travail a été automatiquement configuré avec allowed_inference_geos: ["us"] et default_inference_geo: "us". Aucune modification du code n'est requise. Vos exigences existantes en matière de résidence des données continuent d'être appliquées via les nouveaux contrôles géographiques.

Ce qui a changé

L'exclusion héritée était un paramètre au niveau de l'organisation qui restreignait toutes les demandes à l'infrastructure basée aux États-Unis. Les nouveaux contrôles de résidence des données remplacent cela par deux mécanismes :

  • Contrôle par demande : Le paramètre inference_geo vous permet de spécifier "us" ou "global" sur chaque appel API, vous donnant une flexibilité au niveau de la demande.
  • Contrôles de l'espace de travail : Les paramètres default_inference_geo et allowed_inference_geos dans la Console vous permettent d'appliquer des politiques géographiques sur toutes les clés d'un espace de travail.

Ce qui s'est passé avec votre espace de travail

Votre espace de travail a été migré automatiquement :

Paramètre héritéÉquivalent nouveau
Exclusion du routage global (États-Unis uniquement)allowed_inference_geos: ["us"], default_inference_geo: "us"

Toutes les demandes API utilisant des clés de votre espace de travail continuent de s'exécuter sur l'infrastructure basée aux États-Unis. Aucune action n'est nécessaire pour maintenir votre comportement actuel.

Si vous souhaitez utiliser le routage global

Si vos exigences en matière de résidence des données ont changé et que vous souhaitez profiter du routage global pour une meilleure performance et disponibilité, mettez à jour les paramètres de géographie d'inférence de votre espace de travail pour inclure "global" dans les géographies autorisées et définissez default_inference_geo sur "global". Consultez Restrictions au niveau de l'espace de travail pour plus de détails.

Impact sur la tarification

Les modèles hérités ne sont pas affectés par cette migration. Pour la tarification actuelle sur les modèles plus récents, consultez Tarification.

Limitations actuelles

  • Limites de débit partagées : Les limites de débit sont partagées entre toutes les géographies.
  • Géographie de l'inférence : Seuls "us" et "global" sont disponibles au lancement. Des régions supplémentaires seront ajoutées au fil du temps.
  • Géographie de l'espace de travail : Seul "us" est actuellement disponible. La géographie de l'espace de travail ne peut pas être modifiée après la création de l'espace de travail.

Étapes suivantes

Tarification

Consultez les détails de tarification de la résidence des données.

Espaces de travail

En savoir plus sur la configuration de l'espace de travail.

API d'utilisation et de coûts

Suivez l'utilisation et les coûts par résidence des données.

Was this page helpful?

  • Géographie de l'inférence
  • Utilisation de l'API
  • Réponse
  • Disponibilité du modèle
  • Restrictions au niveau de l'espace de travail
  • Géographie de l'espace de travail
  • Tarification
  • Support de l'API Batch
  • Migration à partir des exclusions héritées
  • Ce qui a changé
  • Ce qui s'est passé avec votre espace de travail
  • Si vous souhaitez utiliser le routage global
  • Impact sur la tarification
  • Limitations actuelles
  • Étapes suivantes