I controlli di residenza dei dati ti permettono di gestire dove i tuoi dati vengono elaborati e archiviati. Due impostazioni indipendenti governano questo:
inference_geo o come impostazione predefinita dell'area di lavoro.Il parametro inference_geo controlla dove viene eseguita l'inferenza del modello per una specifica richiesta API. Aggiungilo a qualsiasi chiamata POST /v1/messages.
| Valore | Descrizione |
|---|---|
"global" | Predefinito. L'inferenza può essere eseguita in qualsiasi area geografica disponibile per prestazioni e disponibilità ottimali. |
"us" | L'inferenza viene eseguita solo nell'infrastruttura basata negli Stati Uniti. |
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"inference_geo": "us",
"messages": [{
"role": "user",
"content": "Summarize the key points of this document."
}]
}'L'oggetto usage della risposta include un campo inference_geo che indica dove è stata eseguita l'inferenza:
{
"usage": {
"input_tokens": 25,
"output_tokens": 150,
"inference_geo": "us"
}
}Il parametro inference_geo è supportato su Claude Opus 4.6 e su tutti i modelli successivi. I modelli più vecchi rilasciati prima di Opus 4.6 non supportano il parametro. Le richieste con inference_geo su modelli legacy restituiscono un errore 400.
Il parametro inference_geo è disponibile solo sull'API Claude (1P). Su piattaforme di terze parti (AWS Bedrock, Google Vertex AI), la regione di inferenza è determinata dall'URL dell'endpoint o dal profilo di inferenza, quindi inference_geo non è applicabile. Il parametro inference_geo non è disponibile nemmeno tramite l'endpoint di compatibilità OpenAI SDK.
Le impostazioni dell'area di lavoro supportano anche la restrizione di quali inference geo sono disponibili:
allowed_inference_geos: Limita quali aree geografiche un'area di lavoro può utilizzare. Se una richiesta specifica un inference_geo non in questo elenco, l'API restituisce un errore.default_inference_geo: Imposta l'area geografica di fallback quando inference_geo viene omesso da una richiesta. Le singole richieste possono ignorare questo impostando inference_geo esplicitamente.Queste impostazioni possono essere configurate tramite la Console o l'Admin API nel campo data_residency.
Workspace geo viene impostato quando crei un'area di lavoro e non può essere modificato in seguito. Attualmente, "us" è l'unico workspace geo disponibile.
Per impostare workspace geo, crea una nuova area di lavoro nella Console:
I prezzi della residenza dei dati variano in base alla generazione del modello:
inference_geo: "us") è prezzata a 1,1x la tariffa standard in tutte le categorie di prezzi dei token (token di input, token di output, scritture della cache e letture della cache).inference_geo: "global" o omesso): Si applica il prezzo standard.inference_geo.Questo prezzo si applica solo all'API Claude (1P). Le piattaforme di terze parti (AWS Bedrock, Google Vertex AI, Microsoft Foundry) hanno i propri prezzi regionali. Consulta la pagina dei prezzi per i dettagli.
Se utilizzi Priority Tier, il moltiplicatore 1,1x per l'inferenza solo negli Stati Uniti influisce anche su come i token vengono conteggiati rispetto alla capacità di Priority Tier. Ogni token consumato con inference_geo: "us" riduce 1,1 token dalla tua TPM impegnata, coerente con il modo in cui altri moltiplicatori di prezzo (prompt caching, contesto lungo) influiscono sui tassi di consumo.
Il parametro inference_geo è supportato sull'API Batch. Ogni richiesta in un batch può specificare il proprio valore inference_geo.
Se la tua organizzazione ha precedentemente rinunciato all'instradamento globale per mantenere l'inferenza negli Stati Uniti, la tua area di lavoro è stata configurata automaticamente con allowed_inference_geos: ["us"] e default_inference_geo: "us". Non sono richieste modifiche al codice. I tuoi requisiti di residenza dei dati esistenti continuano ad essere applicati tramite i nuovi controlli geografici.
L'opt-out legacy era un'impostazione a livello di organizzazione che limitava tutte le richieste all'infrastruttura basata negli Stati Uniti. I nuovi controlli di residenza dei dati sostituiscono questo con due meccanismi:
inference_geo ti permette di specificare "us" o "global" su ogni chiamata API, dandoti flessibilità a livello di richiesta.default_inference_geo e allowed_inference_geos nella Console ti permettono di applicare politiche geografiche su tutte le chiavi in un'area di lavoro.La tua area di lavoro è stata migrata automaticamente:
| Impostazione legacy | Nuovo equivalente |
|---|---|
| Opt-out dell'instradamento globale (solo Stati Uniti) | allowed_inference_geos: ["us"], default_inference_geo: "us" |
Tutte le richieste API che utilizzano chiavi dalla tua area di lavoro continuano a essere eseguite sull'infrastruttura basata negli Stati Uniti. Non è necessaria alcuna azione per mantenere il tuo comportamento attuale.
Se i tuoi requisiti di residenza dei dati sono cambiati e desideri sfruttare l'instradamento globale per prestazioni e disponibilità migliori, aggiorna le impostazioni di inference geo della tua area di lavoro per includere "global" nelle aree geografiche consentite e imposta default_inference_geo su "global". Consulta Restrizioni a livello di area di lavoro per i dettagli.
I modelli legacy non sono interessati da questa migrazione. Per i prezzi attuali sui modelli più recenti, consulta Prezzi.
"us" e "global" sono disponibili al lancio. Ulteriori regioni verranno aggiunte nel tempo."us" è attualmente disponibile. Workspace geo non può essere modificato dopo la creazione dell'area di lavoro.Visualizza i dettagli dei prezzi della residenza dei dati.
Scopri di più sulla configurazione dell'area di lavoro.
Traccia l'utilizzo e i costi per residenza dei dati.
Was this page helpful?