L'API Vertex pour accéder à Claude est presque identique à l'API Messages et prend en charge toutes les mêmes options, avec deux différences clés :
model n'est pas transmis dans le corps de la requête. Au lieu de cela, il est spécifié dans l'URL du point de terminaison Google Cloud.anthropic_version est transmis dans le corps de la requête (plutôt que comme en-tête), et doit être défini sur la valeur vertex-2023-10-16.Vertex est également pris en charge par les SDK clients officiels d'Anthropic. Ce guide vous guidera tout au long du processus de création d'une requête à Claude sur Vertex AI en Python ou TypeScript.
Notez que ce guide suppose que vous avez déjà un projet GCP capable d'utiliser Vertex AI. Consultez utiliser les modèles Claude 3 d'Anthropic pour plus d'informations sur la configuration requise, ainsi qu'une procédure pas à pas complète.
Tout d'abord, installez le SDK client d'Anthropic pour le langage de votre choix.
pip install -U google-cloud-aiplatform "anthropic[vertex]"Notez que la disponibilité des modèles Anthropic varie selon la région. Recherchez « Claude » dans le Vertex AI Model Garden ou accédez à Utiliser Claude 3 pour les dernières informations.
| Modèle | ID de modèle API Vertex AI |
|---|---|
| Claude Sonnet 4.5 | claude-sonnet-4-5@20250929 |
| Claude Sonnet 4 | claude-sonnet-4@20250514 |
| Claude Sonnet 3.7 ⚠️ | claude-3-7-sonnet@20250219 |
| Claude Opus 4.5 | claude-opus-4-5@20251101 |
| Claude Opus 4.1 | claude-opus-4-1@20250805 |
| Claude Opus 4 | claude-opus-4@20250514 |
| Claude Opus 3 ⚠️ | claude-3-opus@20240229 |
| Claude Haiku 4.5 | claude-haiku-4-5@20251001 |
| Claude Haiku 3.5 ⚠️ | claude-3-5-haiku@20241022 |
| Claude Haiku 3 | claude-3-haiku@20240307 |
Avant d'exécuter les requêtes, vous devrez peut-être exécuter gcloud auth application-default login pour vous authentifier auprès de GCP.
L'exemple suivant montre comment générer du texte à partir de Claude sur Vertex AI :
from anthropic import AnthropicVertex
project_id = "MY_PROJECT_ID"
region = "global"
client = AnthropicVertex(project_id=project_id, region=region)
message = client.messages.create(
model="claude-sonnet-4-5@20250929",
max_tokens=100,
messages=[
{
"role": "user",
"content": "Hey Claude!",
}
],
)
print(message)Consultez nos SDK clients et la documentation officielle Vertex AI pour plus de détails.
Vertex fournit un service de journalisation des requêtes-réponses qui permet aux clients de journaliser les invites et les complétions associées à votre utilisation.
Anthropic recommande que vous journalisiez votre activité sur au moins une base glissante de 30 jours afin de comprendre votre activité et d'enquêter sur tout abus potentiel.
L'activation de ce service ne donne à Google ou à Anthropic aucun accès à votre contenu.
Vous pouvez trouver toutes les fonctionnalités actuellement prises en charge sur Vertex ici.
À partir de Claude Sonnet 4.5 et tous les modèles futurs, Google Vertex AI propose deux types de points de terminaison :
Les points de terminaison régionaux incluent une prime tarifaire de 10 % par rapport aux points de terminaison mondiaux.
Ceci s'applique à Claude Sonnet 4.5 et aux modèles futurs uniquement. Les modèles plus anciens (Claude Sonnet 4, Opus 4 et antérieurs) conservent leurs structures tarifaires existantes.
Points de terminaison mondiaux (recommandé) :
Points de terminaison régionaux :
Utilisation des points de terminaison mondiaux (recommandé) :
Définissez le paramètre region sur "global" lors de l'initialisation du client :
from anthropic import AnthropicVertex
project_id = "MY_PROJECT_ID"
region = "global"
client = AnthropicVertex(project_id=project_id, region=region)
message = client.messages.create(
model="claude-sonnet-4-5@20250929",
max_tokens=100,
messages=[
{
"role": "user",
"content": "Hey Claude!",
}
],
)
print(message)Utilisation des points de terminaison régionaux :
Spécifiez une région spécifique comme "us-east1" ou "europe-west1" :
from anthropic import AnthropicVertex
project_id = "MY_PROJECT_ID"
region = "us-east1" # Specify a specific region
client = AnthropicVertex(project_id=project_id, region=region)
message = client.messages.create(
model="claude-sonnet-4-5@20250929",
max_tokens=100,
messages=[
{
"role": "user",
"content": "Hey Claude!",
}
],
)
print(message)