Loading...
    • Guida per sviluppatori
    • Riferimento API
    • MCP
    • Risorse
    • Note sulla versione
    Search...
    ⌘K
    Primi passi
    Introduzione a ClaudeAvvio rapido
    Modelli e prezzi
    Panoramica dei modelliScelta di un modelloNovità in Claude 4.6Guida alla migrazioneDeprecazioni dei modelliPrezzi
    Crea con Claude
    Panoramica delle funzioniUtilizzo dell'API MessagesGestione dei motivi di arrestoBest practice per i prompt
    Capacità del modello
    Extended thinkingAdaptive thinkingEffortFast mode (anteprima di ricerca)Output strutturatiCitazioniStreaming dei messaggiElaborazione batchSupporto PDFRisultati di ricercaSupporto multilingueEmbeddingsVision
    Strumenti
    PanoramicaCome implementare l'uso degli strumentiStrumento di ricerca webStrumento di recupero webStrumento di esecuzione del codiceStrumento di memoriaStrumento BashStrumento Computer useStrumento editor di testo
    Infrastruttura degli strumenti
    Ricerca strumentiChiamata programmatica degli strumentiStreaming granulare degli strumenti
    Gestione del contesto
    Finestre di contestoCompattazioneModifica del contestoPrompt cachingConteggio dei token
    File e risorse
    API Files
    Agent Skills
    PanoramicaAvvio rapidoBest practiceSkills per l'aziendaUtilizzo di Skills con l'API
    Agent SDK
    PanoramicaAvvio rapidoTypeScript SDKTypeScript V2 (anteprima)Python SDKGuida alla migrazione
    MCP nell'API
    Connettore MCPServer MCP remoti
    Claude su piattaforme di terze parti
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt engineering
    PanoramicaGeneratore di promptUsa modelli di promptMiglioratore di promptSii chiaro e direttoUsa esempi (multishot prompting)Lascia che Claude pensi (CoT)Usa tag XMLDai a Claude un ruolo (prompt di sistema)Concatena prompt complessiSuggerimenti per il contesto lungoSuggerimenti per extended thinking
    Test e valutazione
    Definisci criteri di successoSviluppa casi di testUtilizzo dello strumento di valutazioneRiduzione della latenza
    Rafforza i guardrail
    Riduci le allucinazioniAumenta la coerenza dell'outputMitiga i jailbreakStreaming dei rifiutiRiduci la perdita di promptMantieni Claude nel personaggio
    Amministrazione e monitoraggio
    Panoramica dell'API AdminResidenza dei datiWorkspaceAPI di utilizzo e costiAPI Claude Code AnalyticsZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Amministrazione e monitoraggio

    Residenza dei dati

    Gestisci dove viene eseguita l'inferenza del modello e dove vengono archiviati i dati con controlli geografici.

    I controlli di residenza dei dati ti permettono di gestire dove i tuoi dati vengono elaborati e archiviati. Due impostazioni indipendenti governano questo:

    • Inference geo: Controlla dove viene eseguita l'inferenza del modello, su base per-richiesta. Impostato tramite il parametro API inference_geo o come impostazione predefinita dell'area di lavoro.
    • Workspace geo: Controlla dove vengono archiviati i dati inattivi e dove avviene l'elaborazione dell'endpoint (transcodifica delle immagini, esecuzione del codice, ecc.). Configurato a livello di area di lavoro nella Console.

    Inference geo

    Il parametro inference_geo controlla dove viene eseguita l'inferenza del modello per una specifica richiesta API. Aggiungilo a qualsiasi chiamata POST /v1/messages.

    ValoreDescrizione
    "global"Predefinito. L'inferenza può essere eseguita in qualsiasi area geografica disponibile per prestazioni e disponibilità ottimali.
    "us"L'inferenza viene eseguita solo nell'infrastruttura basata negli Stati Uniti.

    Utilizzo dell'API

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "inference_geo": "us",
            "messages": [{
                "role": "user",
                "content": "Summarize the key points of this document."
            }]
        }'

    Risposta

    L'oggetto usage della risposta include un campo inference_geo che indica dove è stata eseguita l'inferenza:

    {
      "usage": {
        "input_tokens": 25,
        "output_tokens": 150,
        "inference_geo": "us"
      }
    }

    Disponibilità del modello

    Il parametro inference_geo è supportato su Claude Opus 4.6 e su tutti i modelli successivi. I modelli più vecchi rilasciati prima di Opus 4.6 non supportano il parametro. Le richieste con inference_geo su modelli legacy restituiscono un errore 400.

    Il parametro inference_geo è disponibile solo sull'API Claude (1P). Su piattaforme di terze parti (AWS Bedrock, Google Vertex AI), la regione di inferenza è determinata dall'URL dell'endpoint o dal profilo di inferenza, quindi inference_geo non è applicabile. Il parametro inference_geo non è disponibile nemmeno tramite l'endpoint di compatibilità OpenAI SDK.

    Restrizioni a livello di area di lavoro

    Le impostazioni dell'area di lavoro supportano anche la restrizione di quali inference geo sono disponibili:

    • allowed_inference_geos: Limita quali aree geografiche un'area di lavoro può utilizzare. Se una richiesta specifica un inference_geo non in questo elenco, l'API restituisce un errore.
    • default_inference_geo: Imposta l'area geografica di fallback quando inference_geo viene omesso da una richiesta. Le singole richieste possono ignorare questo impostando inference_geo esplicitamente.

    Queste impostazioni possono essere configurate tramite la Console o l'Admin API nel campo data_residency.

    Workspace geo

    Workspace geo viene impostato quando crei un'area di lavoro e non può essere modificato in seguito. Attualmente, "us" è l'unico workspace geo disponibile.

    Per impostare workspace geo, crea una nuova area di lavoro nella Console:

    1. Vai a Settings > Workspaces.
    2. Crea una nuova area di lavoro.
    3. Seleziona il workspace geo.

    Prezzi

    I prezzi della residenza dei dati variano in base alla generazione del modello:

    • Claude Opus 4.6 e versioni successive: L'inferenza solo negli Stati Uniti (inference_geo: "us") è prezzata a 1,1x la tariffa standard in tutte le categorie di prezzi dei token (token di input, token di output, scritture della cache e letture della cache).
    • Instradamento globale (inference_geo: "global" o omesso): Si applica il prezzo standard.
    • Modelli più vecchi: Il prezzo esistente rimane invariato indipendentemente dalle impostazioni inference_geo.

    Questo prezzo si applica solo all'API Claude (1P). Le piattaforme di terze parti (AWS Bedrock, Google Vertex AI, Microsoft Foundry) hanno i propri prezzi regionali. Consulta la pagina dei prezzi per i dettagli.

    Se utilizzi Priority Tier, il moltiplicatore 1,1x per l'inferenza solo negli Stati Uniti influisce anche su come i token vengono conteggiati rispetto alla capacità di Priority Tier. Ogni token consumato con inference_geo: "us" riduce 1,1 token dalla tua TPM impegnata, coerente con il modo in cui altri moltiplicatori di prezzo (prompt caching, contesto lungo) influiscono sui tassi di consumo.

    Supporto dell'API Batch

    Il parametro inference_geo è supportato sull'API Batch. Ogni richiesta in un batch può specificare il proprio valore inference_geo.

    Migrazione da opt-out legacy

    Se la tua organizzazione ha precedentemente rinunciato all'instradamento globale per mantenere l'inferenza negli Stati Uniti, la tua area di lavoro è stata configurata automaticamente con allowed_inference_geos: ["us"] e default_inference_geo: "us". Non sono richieste modifiche al codice. I tuoi requisiti di residenza dei dati esistenti continuano ad essere applicati tramite i nuovi controlli geografici.

    Cosa è cambiato

    L'opt-out legacy era un'impostazione a livello di organizzazione che limitava tutte le richieste all'infrastruttura basata negli Stati Uniti. I nuovi controlli di residenza dei dati sostituiscono questo con due meccanismi:

    • Controllo per-richiesta: Il parametro inference_geo ti permette di specificare "us" o "global" su ogni chiamata API, dandoti flessibilità a livello di richiesta.
    • Controlli dell'area di lavoro: Le impostazioni default_inference_geo e allowed_inference_geos nella Console ti permettono di applicare politiche geografiche su tutte le chiavi in un'area di lavoro.

    Cosa è successo alla tua area di lavoro

    La tua area di lavoro è stata migrata automaticamente:

    Impostazione legacyNuovo equivalente
    Opt-out dell'instradamento globale (solo Stati Uniti)allowed_inference_geos: ["us"], default_inference_geo: "us"

    Tutte le richieste API che utilizzano chiavi dalla tua area di lavoro continuano a essere eseguite sull'infrastruttura basata negli Stati Uniti. Non è necessaria alcuna azione per mantenere il tuo comportamento attuale.

    Se desideri utilizzare l'instradamento globale

    Se i tuoi requisiti di residenza dei dati sono cambiati e desideri sfruttare l'instradamento globale per prestazioni e disponibilità migliori, aggiorna le impostazioni di inference geo della tua area di lavoro per includere "global" nelle aree geografiche consentite e imposta default_inference_geo su "global". Consulta Restrizioni a livello di area di lavoro per i dettagli.

    Impatto sui prezzi

    I modelli legacy non sono interessati da questa migrazione. Per i prezzi attuali sui modelli più recenti, consulta Prezzi.

    Limitazioni attuali

    • Limiti di velocità condivisi: I limiti di velocità sono condivisi in tutte le aree geografiche.
    • Inference geo: Solo "us" e "global" sono disponibili al lancio. Ulteriori regioni verranno aggiunte nel tempo.
    • Workspace geo: Solo "us" è attualmente disponibile. Workspace geo non può essere modificato dopo la creazione dell'area di lavoro.

    Passaggi successivi

    Prezzi

    Visualizza i dettagli dei prezzi della residenza dei dati.

    Workspaces

    Scopri di più sulla configurazione dell'area di lavoro.

    Usage and Cost API

    Traccia l'utilizzo e i costi per residenza dei dati.

    Was this page helpful?

    • Inference geo
    • Utilizzo dell'API
    • Risposta
    • Disponibilità del modello
    • Restrizioni a livello di area di lavoro
    • Workspace geo
    • Prezzi
    • Supporto dell'API Batch
    • Migrazione da opt-out legacy
    • Cosa è cambiato
    • Cosa è successo alla tua area di lavoro
    • Se desideri utilizzare l'instradamento globale
    • Impatto sui prezzi
    • Limitazioni attuali
    • Passaggi successivi