Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de lançamento
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Modelos e preços
    Visão geral dos modelosEscolhendo um modeloNovidades no Claude 4.6Guia de migraçãoDescontinuação de modelosPreços
    Construir com Claude
    Visão geral de recursosUsando a API MessagesTratando razões de paradaMelhores práticas de prompts
    Gerenciamento de contexto
    Janelas de contextoCompactaçãoEdição de contexto
    Capacidades
    Cache de promptsPensamento estendidoPensamento adaptativoEsforçoStreaming de mensagensProcessamento em loteCitaçõesSuporte multilíngueContagem de tokensEmbeddingsVisãoSuporte a PDFAPI de ArquivosResultados de pesquisaSaídas estruturadas
    Ferramentas
    Visão geralComo implementar o uso de ferramentasStreaming de ferramentas granularFerramenta BashFerramenta de execução de códigoChamada de ferramentas programáticaFerramenta de uso de computadorFerramenta de editor de textoFerramenta de busca na webFerramenta de pesquisa na webFerramenta de memóriaFerramenta de busca de ferramentas
    Habilidades de agente
    Visão geralInício rápidoMelhores práticasHabilidades para empresasUsando habilidades com a API
    Agent SDK
    Visão geralInício rápidoSDK TypeScriptTypeScript V2 (prévia)SDK PythonGuia de migração
    MCP na API
    Conector MCPServidores MCP remotos
    Claude em plataformas de terceiros
    Amazon BedrockMicrosoft FoundryVertex AI
    Engenharia de prompts
    Visão geralGerador de promptsUsar modelos de promptsMelhorador de promptsSeja claro e diretoUse exemplos (prompting multishotshot)Deixe Claude pensar (CoT)Use tags XMLDê um papel ao Claude (prompts do sistema)Encadear prompts complexosDicas de contexto longoDicas de pensamento estendido
    Testar e avaliar
    Definir critérios de sucessoDesenvolver casos de testeUsando a ferramenta de avaliaçãoReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksRecusas de streamingReduzir vazamento de promptManter Claude em personagem
    Administração e monitoramento
    Visão geral da API AdminResidência de dadosEspaços de trabalhoAPI de uso e custoAPI de análise de código ClaudeRetenção zero de dados
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Administração e monitoramento

    Residência de dados

    Gerencie onde a inferência do modelo é executada e onde os dados são armazenados com controles geográficos.

    Os controles de residência de dados permitem que você gerencie onde seus dados são processados e armazenados. Duas configurações independentes governam isso:

    • Geo de inferência: Controla onde a inferência do modelo é executada, por solicitação. Definido via parâmetro da API inference_geo ou como padrão do workspace.
    • Geo do workspace: Controla onde os dados são armazenados em repouso e onde o processamento do endpoint (transcodificação de imagem, execução de código, etc.) acontece. Configurado no nível do workspace no Console.

    Geo de inferência

    O parâmetro inference_geo controla onde a inferência do modelo é executada para uma solicitação de API específica. Adicione-o a qualquer chamada POST /v1/messages.

    ValorDescrição
    "global"Padrão. A inferência pode ser executada em qualquer geografia disponível para desempenho e disponibilidade ideais.
    "us"A inferência é executada apenas em infraestrutura baseada nos EUA.

    Uso da API

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "inference_geo": "us",
            "messages": [{
                "role": "user",
                "content": "Summarize the key points of this document."
            }]
        }'

    Resposta

    O objeto usage da resposta inclui um campo inference_geo indicando onde a inferência foi executada:

    {
      "usage": {
        "input_tokens": 25,
        "output_tokens": 150,
        "inference_geo": "us"
      }
    }

    Disponibilidade do modelo

    O parâmetro inference_geo é suportado no Claude Opus 4.6 e em todos os modelos subsequentes. Modelos mais antigos lançados antes do Opus 4.6 não suportam o parâmetro. Solicitações com inference_geo em modelos legados retornam um erro 400.

    O parâmetro inference_geo está disponível apenas na Claude API (1P). Em plataformas de terceiros (AWS Bedrock, Google Vertex AI), a região de inferência é determinada pela URL do endpoint ou perfil de inferência, portanto inference_geo não é aplicável. O parâmetro inference_geo também não está disponível via endpoint de compatibilidade do SDK OpenAI.

    Restrições no nível do workspace

    As configurações do workspace também suportam a restrição de quais geos de inferência estão disponíveis:

    • allowed_inference_geos: Restringe quais geos um workspace pode usar. Se uma solicitação especificar um inference_geo não nesta lista, a API retorna um erro.
    • default_inference_geo: Define o geo de fallback quando inference_geo é omitido de uma solicitação. Solicitações individuais podem substituir isso definindo inference_geo explicitamente.

    Essas configurações podem ser configuradas através do Console ou da Admin API sob o campo data_residency.

    Geo do workspace

    O geo do workspace é definido quando você cria um workspace e não pode ser alterado depois. Atualmente, "us" é o único geo de workspace disponível.

    Para definir o geo do workspace, crie um novo workspace no Console:

    1. Vá para Settings > Workspaces.
    2. Crie um novo workspace.
    3. Selecione o geo do workspace.

    Preços

    Os preços de residência de dados variam por geração de modelo:

    • Claude Opus 4.6 e mais recente: Inferência apenas nos EUA (inference_geo: "us") é precificada a 1,1x a taxa padrão em todas as categorias de preços de tokens (tokens de entrada, tokens de saída, gravações de cache e leituras de cache).
    • Roteamento global (inference_geo: "global" ou omitido): Preços padrão se aplicam.
    • Modelos mais antigos: Os preços existentes permanecem inalterados independentemente das configurações de inference_geo.

    Este preço se aplica apenas à Claude API (1P). Plataformas de terceiros (AWS Bedrock, Google Vertex AI, Microsoft Foundry) têm seus próprios preços regionais. Consulte a página de preços para detalhes.

    Se você usar Priority Tier, o multiplicador 1,1x para inferência apenas nos EUA também afeta como os tokens são contados em relação à sua capacidade de Priority Tier. Cada token consumido com inference_geo: "us" reduz 1,1 tokens do seu TPM comprometido, consistente com como outros multiplicadores de preço (cache de prompt, contexto longo) afetam as taxas de consumo.

    Suporte da API em lote

    O parâmetro inference_geo é suportado na Batch API. Cada solicitação em um lote pode especificar seu próprio valor de inference_geo.

    Migração de opt-outs legados

    Se sua organização anteriormente optou por não participar do roteamento global para manter a inferência nos EUA, seu workspace foi automaticamente configurado com allowed_inference_geos: ["us"] e default_inference_geo: "us". Nenhuma alteração de código é necessária. Seus requisitos de residência de dados existentes continuam sendo aplicados através dos novos controles de geo.

    O que mudou

    O opt-out legado era uma configuração no nível da organização que restringia todas as solicitações à infraestrutura baseada nos EUA. Os novos controles de residência de dados substituem isso com dois mecanismos:

    • Controle por solicitação: O parâmetro inference_geo permite que você especifique "us" ou "global" em cada chamada de API, oferecendo flexibilidade no nível de solicitação.
    • Controles de workspace: As configurações default_inference_geo e allowed_inference_geos no Console permitem que você aplique políticas de geo em todas as chaves em um workspace.

    O que aconteceu com seu workspace

    Seu workspace foi migrado automaticamente:

    Configuração legadaNovo equivalente
    Opt-out de roteamento global (apenas EUA)allowed_inference_geos: ["us"], default_inference_geo: "us"

    Todas as solicitações de API usando chaves do seu workspace continuam sendo executadas em infraestrutura baseada nos EUA. Nenhuma ação é necessária para manter seu comportamento atual.

    Se você quiser usar roteamento global

    Se seus requisitos de residência de dados mudaram e você quer aproveitar o roteamento global para melhor desempenho e disponibilidade, atualize as configurações de geo de inferência do seu workspace para incluir "global" nos geos permitidos e defina default_inference_geo para "global". Consulte Restrições no nível do workspace para detalhes.

    Impacto de preço

    Modelos legados não são afetados por esta migração. Para preços atuais em modelos mais recentes, consulte Preços.

    Limitações atuais

    • Limites de taxa compartilhados: Os limites de taxa são compartilhados em todos os geos.
    • Geo de inferência: Apenas "us" e "global" estão disponíveis no lançamento. Regiões adicionais serão adicionadas ao longo do tempo.
    • Geo do workspace: Apenas "us" está disponível no momento. O geo do workspace não pode ser alterado após a criação do workspace.

    Próximas etapas

    Preços

    Visualize detalhes de preços de residência de dados.

    Workspaces

    Saiba mais sobre configuração de workspace.

    Usage and Cost API

    Rastreie uso e custos por residência de dados.

    Was this page helpful?

    • Geo de inferência
    • Uso da API
    • Resposta
    • Disponibilidade do modelo
    • Restrições no nível do workspace
    • Geo do workspace
    • Preços
    • Suporte da API em lote
    • Migração de opt-outs legados
    • O que mudou
    • O que aconteceu com seu workspace
    • Se você quiser usar roteamento global
    • Impacto de preço
    • Limitações atuais
    • Próximas etapas