Loading...
  • Construire
  • Admin
  • Modèles & tarification
  • SDKs clients
  • Référence API
Search...
⌘K
Log in
Vertex AI
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
Admin/Plateformes tierces

Claude sur Vertex AI

Les modèles Claude d'Anthropic sont désormais généralement disponibles via Vertex AI.

L'API Vertex pour accéder à Claude est presque identique à l'API Messages et prend en charge toutes les mêmes options, avec deux différences clés :

  • Dans Vertex, model n'est pas transmis dans le corps de la requête. Au lieu de cela, il est spécifié dans l'URL du point de terminaison Google Cloud.
  • Dans Vertex, anthropic_version est transmis dans le corps de la requête (plutôt que comme en-tête), et doit être défini sur la valeur vertex-2023-10-16.

Vertex est également pris en charge par les SDK clients officiels d'Anthropic. Ce guide vous montre comment faire une requête à Claude sur Vertex AI en utilisant l'un des SDK clients d'Anthropic.

Notez que ce guide suppose que vous disposez déjà d'un projet GCP capable d'utiliser Vertex AI. Consultez utiliser les modèles Claude 3 d'Anthropic pour plus d'informations sur la configuration requise, ainsi qu'une procédure pas à pas complète.

Installer un SDK pour accéder à Vertex AI

Tout d'abord, installez le SDK client d'Anthropic pour le langage de votre choix.

Accéder à Vertex AI

Disponibilité des modèles

Notez que la disponibilité des modèles Anthropic varie selon la région. Recherchez « Claude » dans le Vertex AI Model Garden ou allez à Utiliser Claude 3 pour les dernières informations.

ID de modèle API

ModèleID de modèle API Vertex AI
Claude Opus 4.7claude-opus-4-7
Claude Opus 4.6claude-opus-4-6
Claude Sonnet 4.6claude-sonnet-4-6
Claude Sonnet 4.5claude-sonnet-4-5@20250929
Claude Sonnet 4 ⚠️claude-sonnet-4@20250514
Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
Claude Opus 4.5claude-opus-4-5@20251101
Claude Opus 4.1claude-opus-4-1@20250805
Claude Opus 4 ⚠️claude-opus-4@20250514
Claude Haiku 4.5claude-haiku-4-5@20251001
Claude Haiku 3.5 ⚠️claude-3-5-haiku@20241022
Claude Haiku 3 ⚠️claude-3-haiku@20240307

Effectuer des requêtes

Avant d'exécuter les requêtes, vous devrez peut-être exécuter gcloud auth application-default login pour vous authentifier auprès de GCP.

Les exemples suivants montrent comment générer du texte à partir de Claude sur Vertex AI :

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "global"

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Consultez les SDK clients et la documentation officielle Vertex AI pour plus de détails.

Claude est également disponible via Amazon Bedrock et Microsoft Foundry.

Journalisation des activités

Vertex fournit un service de journalisation des requêtes-réponses qui permet aux clients de journaliser les invites et les complétions associées à votre utilisation.

Anthropic recommande que vous journalisiez votre activité sur au moins une base glissante de 30 jours afin de comprendre votre activité et d'enquêter sur tout abus potentiel.

L'activation de ce service ne donne à Google ou à Anthropic aucun accès à votre contenu.

Support des fonctionnalités

Pour toutes les fonctionnalités actuellement prises en charge sur Vertex AI, consultez Aperçu des fonctionnalités API.

Fenêtre de contexte

Claude Opus 4.7, Claude Opus 4.6 et Claude Sonnet 4.6 ont une fenêtre de contexte de 1M tokens sur Vertex AI. Les autres modèles Claude, y compris Sonnet 4.5 et Sonnet 4 (déprécié), ont une fenêtre de contexte de 200k tokens.

Vertex AI limite les charges utiles des requêtes à 30 Mo. Lors de l'envoi de documents volumineux ou de nombreuses images, vous pouvez atteindre cette limite avant la limite de tokens.

Points de terminaison globaux, multi-régions et régionaux

Google Vertex AI offre trois types de points de terminaison :

  • Points de terminaison globaux : Routage dynamique pour une disponibilité maximale
  • Points de terminaison multi-régions : Routage dynamique au sein d'une zone géographique (par exemple, les États-Unis ou l'Union européenne) pour la résidence des données avec une haute disponibilité
  • Points de terminaison régionaux : Routage des données garanti via des régions géographiques spécifiques

Les points de terminaison régionaux et multi-régions incluent une prime tarifaire de 10 % par rapport aux points de terminaison globaux.

Ceci s'applique uniquement à Claude Sonnet 4.5 et aux modèles futurs. Les modèles plus anciens (Claude Sonnet 4 (déprécié), Opus 4 (déprécié) et antérieurs) conservent leurs structures tarifaires existantes.

Quand utiliser chaque option

Points de terminaison globaux (recommandé) :

  • Fournissent une disponibilité et un temps d'activité maximaux
  • Acheminent dynamiquement les requêtes vers les régions avec une capacité disponible
  • Aucune prime tarifaire
  • Idéal pour les applications où la résidence des données est flexible
  • Prend en charge uniquement le trafic à l'usage (le débit provisionné nécessite des points de terminaison régionaux)

Points de terminaison multi-régions :

  • Acheminent dynamiquement les requêtes entre les régions au sein d'une zone géographique (actuellement us et eu)
  • Utile lorsque vous avez besoin de la résidence des données au sein d'une géographie large mais que vous souhaitez une disponibilité plus élevée qu'une seule région
  • Prime tarifaire de 10 % par rapport aux points de terminaison globaux
  • Prend en charge uniquement le trafic à l'usage (le débit provisionné nécessite des points de terminaison régionaux)

Points de terminaison régionaux :

  • Acheminent le trafic via des régions géographiques spécifiques
  • Requis pour la résidence des données dans une seule région, les mandats de conformité stricts ou le débit provisionné
  • Prennent en charge le trafic à l'usage et le débit provisionné
  • La prime tarifaire de 10 % reflète les coûts d'infrastructure pour la capacité régionale dédiée

Implémentation

Utilisation des points de terminaison globaux (recommandé) :

Définissez le paramètre region sur "global" lors de l'initialisation du client :

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "global"

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Utilisation des points de terminaison multi-régions :

Définissez le paramètre region sur un identifiant multi-région : "us" pour les États-Unis ou "eu" pour l'Union européenne. Le SDK achemine les requêtes vers le point de terminaison multi-région correspondant (https://aiplatform.us.rep.googleapis.com ou https://aiplatform.eu.rep.googleapis.com), qui équilibre dynamiquement le trafic entre les régions au sein de cette géographie.

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "us"  # Multi-region identifier: "us" or "eu"

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Utilisation des points de terminaison régionaux :

Spécifiez une région spécifique comme "us-east1" ou "europe-west1" :

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "us-east1"  # Specify a specific region

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Claude Mythos Preview est une version de recherche disponible pour les clients invités sur Google Vertex AI. Pour plus d'informations, consultez Project Glasswing.

Ressources supplémentaires

  • Tarification Google Vertex AI : cloud.google.com/vertex-ai/generative-ai/pricing
  • Documentation des modèles Claude : Claude sur Vertex AI
  • Article de blog Google : Point de terminaison global pour les modèles Claude
  • Détails de tarification Anthropic : Documentation de tarification

Was this page helpful?

  • Installer un SDK pour accéder à Vertex AI
  • Accéder à Vertex AI
  • Disponibilité des modèles
  • Effectuer des requêtes
  • Journalisation des activités
  • Support des fonctionnalités
  • Fenêtre de contexte
  • Points de terminaison globaux, multi-régions et régionaux
  • Quand utiliser chaque option
  • Implémentation
  • Ressources supplémentaires