Loading...
    • Crea
    • Admin
    • Modelli e prezzi
    • SDK client
    • Riferimento API
    Search...
    ⌘K
    Amministrazione
    Panoramica Admin APIWorkspaceResidenza dei datiConservazione API e dati
    Monitoraggio
    Claude Code Analytics APIUsage and Cost API
    Piattaforme di terze parti
    Amazon BedrockAmazon Bedrock (anteprima ricerca)Microsoft FoundryVertex AI
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Piattaforme di terze parti

    Claude su Vertex AI

    I modelli Claude di Anthropic sono ora generalmente disponibili tramite Vertex AI.

    L'API Vertex per accedere a Claude è quasi identica all'API Messages e supporta tutte le stesse opzioni, con due differenze fondamentali:

    • In Vertex, model non viene passato nel corpo della richiesta. Invece, viene specificato nell'URL dell'endpoint di Google Cloud.
    • In Vertex, anthropic_version viene passato nel corpo della richiesta (piuttosto che come intestazione) e deve essere impostato al valore vertex-2023-10-16.

    Vertex è supportato anche dagli SDK client ufficiali di Anthropic. Questa guida ti guida attraverso l'esecuzione di una richiesta a Claude su Vertex AI utilizzando uno degli SDK client di Anthropic.

    Nota che questa guida presuppone che tu abbia già un progetto GCP in grado di utilizzare Vertex AI. Vedi utilizzo dei modelli Claude 3 da Anthropic per ulteriori informazioni sulla configurazione richiesta, nonché una procedura dettagliata completa.

    Installa un SDK per accedere a Vertex AI

    Innanzitutto, installa l'SDK client di Anthropic per il linguaggio di tua scelta.

    Accesso a Vertex AI

    Disponibilità dei modelli

    Nota che la disponibilità dei modelli Anthropic varia in base alla regione. Cerca "Claude" in Vertex AI Model Garden oppure vai a Usa Claude 3 per le informazioni più recenti.

    ID modello API

    ModelloID modello API Vertex AI
    Claude Opus 4.7claude-opus-4-7
    Claude Opus 4.6claude-opus-4-6
    Claude Sonnet 4.6claude-sonnet-4-6
    Claude Sonnet 4.5claude-sonnet-4-5@20250929
    Claude Sonnet 4 ⚠️claude-sonnet-4@20250514
    Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
    Claude Opus 4.5claude-opus-4-5@20251101
    Claude Opus 4.1claude-opus-4-1@20250805
    Claude Opus 4 ⚠️claude-opus-4@20250514
    Claude Haiku 4.5claude-haiku-4-5@20251001
    Claude Haiku 3.5 ⚠️claude-3-5-haiku@20241022
    Claude Haiku 3 ⚠️claude-3-haiku@20240307

    Esecuzione di richieste

    Prima di eseguire le richieste, potrebbe essere necessario eseguire gcloud auth application-default login per autenticarsi con GCP.

    I seguenti esempi mostrano come generare testo da Claude su Vertex AI:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-7",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Vedi gli SDK client e la documentazione ufficiale di Vertex AI per ulteriori dettagli.

    Claude è disponibile anche tramite Amazon Bedrock e Microsoft Foundry.

    Registrazione dell'attività

    Vertex fornisce un servizio di registrazione richiesta-risposta che consente ai clienti di registrare i prompt e i completamenti associati al tuo utilizzo.

    Anthropic consiglia di registrare la tua attività su almeno una base mobile di 30 giorni per comprendere la tua attività e investigare qualsiasi potenziale uso improprio.

    L'attivazione di questo servizio non dà a Google o Anthropic alcun accesso ai tuoi contenuti.

    Supporto delle funzionalità

    Per tutte le funzionalità attualmente supportate su Vertex AI, vedi Panoramica delle funzionalità API.

    Finestra di contesto

    Claude Opus 4.7, Claude Opus 4.6 e Claude Sonnet 4.6 hanno una finestra di contesto di 1M token su Vertex AI. Gli altri modelli Claude, inclusi Sonnet 4.5 e Sonnet 4 (deprecato), hanno una finestra di contesto di 200k token.

    Vertex AI limita i payload delle richieste a 30 MB. Quando invii documenti di grandi dimensioni o molte immagini, potresti raggiungere questo limite prima del limite di token.

    Endpoint globali, multi-region e regionali

    Google Vertex AI offre tre tipi di endpoint:

    • Endpoint globali: Routing dinamico per massima disponibilità
    • Endpoint multi-region: Routing dinamico all'interno di un'area geografica (ad esempio, gli Stati Uniti o l'Unione Europea) per la residenza dei dati con alta disponibilità
    • Endpoint regionali: Routing dei dati garantito attraverso regioni geografiche specifiche

    Gli endpoint regionali e multi-region includono un premio di prezzo del 10% rispetto agli endpoint globali.

    Questo si applica solo a Claude Sonnet 4.5 e ai modelli futuri. I modelli più vecchi (Claude Sonnet 4 (deprecato), Opus 4 (deprecato) e versioni precedenti) mantengono le loro strutture di prezzo esistenti.

    Quando utilizzare ciascuna opzione

    Endpoint globali (consigliati):

    • Forniscono massima disponibilità e uptime
    • Instradano dinamicamente le richieste alle regioni con capacità disponibile
    • Nessun premio di prezzo
    • Migliore per le applicazioni in cui la residenza dei dati è flessibile
    • Supporta solo il traffico pay-as-you-go (la velocità effettiva con provisioning richiede endpoint regionali)

    Endpoint multi-region:

    • Instradano dinamicamente le richieste tra le regioni all'interno di un'area geografica (attualmente us e eu)
    • Utile quando hai bisogno della residenza dei dati all'interno di una geografia ampia ma desideri una disponibilità più elevata rispetto a una singola regione
    • Premio di prezzo del 10% rispetto agli endpoint globali
    • Supporta solo il traffico pay-as-you-go (la velocità effettiva con provisioning richiede endpoint regionali)

    Endpoint regionali:

    • Instradano il traffico attraverso regioni geografiche specifiche
    • Richiesti per la residenza dei dati in una singola regione, mandati di conformità rigorosi o velocità effettiva con provisioning
    • Supportano sia il traffico pay-as-you-go che la velocità effettiva con provisioning
    • Il premio di prezzo del 10% riflette i costi dell'infrastruttura per la capacità regionale dedicata

    Implementazione

    Utilizzo di endpoint globali (consigliati):

    Imposta il parametro region su "global" quando inizializzi il client:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-7",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Utilizzo di endpoint multi-region:

    Imposta il parametro region su un identificatore multi-region: "us" per gli Stati Uniti o "eu" per l'Unione Europea. L'SDK instrada le richieste all'endpoint multi-region corrispondente (https://aiplatform.us.rep.googleapis.com o https://aiplatform.eu.rep.googleapis.com), che bilancia dinamicamente il traffico tra le regioni all'interno di quella geografia.

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "us"  # Multi-region identifier: "us" or "eu"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-7",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Utilizzo di endpoint regionali:

    Specifica una regione specifica come "us-east1" o "europe-west1":

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "us-east1"  # Specify a specific region
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-7",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Claude Mythos Preview è un'anteprima di ricerca disponibile per i clienti invitati su Google Vertex AI. Per ulteriori informazioni, vedi Project Glasswing.

    Risorse aggiuntive

    • Prezzi di Google Vertex AI: cloud.google.com/vertex-ai/generative-ai/pricing
    • Documentazione dei modelli Claude: Claude su Vertex AI
    • Post del blog di Google: Endpoint globale per i modelli Claude
    • Dettagli sui prezzi di Anthropic: Documentazione sui prezzi

    Was this page helpful?

    • Installa un SDK per accedere a Vertex AI
    • Accesso a Vertex AI
    • Disponibilità dei modelli
    • Esecuzione di richieste
    • Registrazione dell'attività
    • Supporto delle funzionalità
    • Finestra di contesto
    • Endpoint globali, multi-region e regionali
    • Quando utilizzare ciascuna opzione
    • Implementazione
    • Risorse aggiuntive