Os controles de residência de dados permitem que você gerencie onde seus dados são processados e armazenados. Duas configurações independentes governam isso:
inference_geo ou como padrão do workspace.O parâmetro inference_geo controla onde a inferência do modelo é executada para uma solicitação de API específica. Adicione-o a qualquer chamada POST /v1/messages.
| Valor | Descrição |
|---|---|
"global" | Padrão. A inferência pode ser executada em qualquer geografia disponível para desempenho e disponibilidade ideais. |
"us" | A inferência é executada apenas em infraestrutura baseada nos EUA. |
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"inference_geo": "us",
"messages": [{
"role": "user",
"content": "Summarize the key points of this document."
}]
}'O objeto usage da resposta inclui um campo inference_geo indicando onde a inferência foi executada:
{
"usage": {
"input_tokens": 25,
"output_tokens": 150,
"inference_geo": "us"
}
}O parâmetro inference_geo é suportado no Claude Opus 4.6 e em todos os modelos subsequentes. Modelos mais antigos lançados antes do Opus 4.6 não suportam o parâmetro. Solicitações com inference_geo em modelos legados retornam um erro 400.
O parâmetro inference_geo está disponível apenas na Claude API (1P). Em plataformas de terceiros (AWS Bedrock, Google Vertex AI), a região de inferência é determinada pela URL do endpoint ou perfil de inferência, portanto inference_geo não é aplicável. O parâmetro inference_geo também não está disponível via endpoint de compatibilidade do SDK OpenAI.
As configurações do workspace também suportam a restrição de quais geos de inferência estão disponíveis:
allowed_inference_geos: Restringe quais geos um workspace pode usar. Se uma solicitação especificar um inference_geo não nesta lista, a API retorna um erro.default_inference_geo: Define o geo de fallback quando inference_geo é omitido de uma solicitação. Solicitações individuais podem substituir isso definindo inference_geo explicitamente.Essas configurações podem ser configuradas através do Console ou da Admin API sob o campo data_residency.
O geo do workspace é definido quando você cria um workspace e não pode ser alterado depois. Atualmente, "us" é o único geo de workspace disponível.
Para definir o geo do workspace, crie um novo workspace no Console:
Os preços de residência de dados variam por geração de modelo:
inference_geo: "us") é precificada a 1,1x a taxa padrão em todas as categorias de preços de tokens (tokens de entrada, tokens de saída, gravações de cache e leituras de cache).inference_geo: "global" ou omitido): Preços padrão se aplicam.inference_geo.Este preço se aplica apenas à Claude API (1P). Plataformas de terceiros (AWS Bedrock, Google Vertex AI, Microsoft Foundry) têm seus próprios preços regionais. Consulte a página de preços para detalhes.
Se você usar Priority Tier, o multiplicador 1,1x para inferência apenas nos EUA também afeta como os tokens são contados em relação à sua capacidade de Priority Tier. Cada token consumido com inference_geo: "us" reduz 1,1 tokens do seu TPM comprometido, consistente com como outros multiplicadores de preço (cache de prompt, contexto longo) afetam as taxas de consumo.
O parâmetro inference_geo é suportado na Batch API. Cada solicitação em um lote pode especificar seu próprio valor de inference_geo.
Se sua organização anteriormente optou por não participar do roteamento global para manter a inferência nos EUA, seu workspace foi automaticamente configurado com allowed_inference_geos: ["us"] e default_inference_geo: "us". Nenhuma alteração de código é necessária. Seus requisitos de residência de dados existentes continuam sendo aplicados através dos novos controles de geo.
O opt-out legado era uma configuração no nível da organização que restringia todas as solicitações à infraestrutura baseada nos EUA. Os novos controles de residência de dados substituem isso com dois mecanismos:
inference_geo permite que você especifique "us" ou "global" em cada chamada de API, oferecendo flexibilidade no nível de solicitação.default_inference_geo e allowed_inference_geos no Console permitem que você aplique políticas de geo em todas as chaves em um workspace.Seu workspace foi migrado automaticamente:
| Configuração legada | Novo equivalente |
|---|---|
| Opt-out de roteamento global (apenas EUA) | allowed_inference_geos: ["us"], default_inference_geo: "us" |
Todas as solicitações de API usando chaves do seu workspace continuam sendo executadas em infraestrutura baseada nos EUA. Nenhuma ação é necessária para manter seu comportamento atual.
Se seus requisitos de residência de dados mudaram e você quer aproveitar o roteamento global para melhor desempenho e disponibilidade, atualize as configurações de geo de inferência do seu workspace para incluir "global" nos geos permitidos e defina default_inference_geo para "global". Consulte Restrições no nível do workspace para detalhes.
Modelos legados não são afetados por esta migração. Para preços atuais em modelos mais recentes, consulte Preços.
"us" e "global" estão disponíveis no lançamento. Regiões adicionais serão adicionadas ao longo do tempo."us" está disponível no momento. O geo do workspace não pode ser alterado após a criação do workspace.Visualize detalhes de preços de residência de dados.
Saiba mais sobre configuração de workspace.
Rastreie uso e custos por residência de dados.
Was this page helpful?