Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Modèles et tarification
    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.5Migration vers Claude 4.5Dépréciation des modèlesTarification
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesFenêtres de contexteMeilleures pratiques de prompting
    Capacités
    Mise en cache des promptsÉdition de contexteRéflexion étendueEffortStreaming de messagesTraitement par lotsCitationsSupport multilingueComptage de tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheSorties structurées
    Outils
    AperçuComment implémenter l'utilisation d'outilsStreaming d'outils granulaireOutil BashOutil d'exécution de codeAppel d'outils programmatiqueOutil Computer useOutil Éditeur de texteOutil Web fetchOutil Web searchOutil MemoryOutil Tool search
    Agent Skills
    AperçuDémarrage rapideMeilleures pratiquesUtiliser Skills avec l'API
    Agent SDK
    AperçuDémarrage rapideSDK TypeScriptTypeScript V2 (aperçu)SDK PythonGuide de migration
    MCP dans l'API
    Connecteur MCPServeurs MCP distants
    Claude sur des plateformes tierces
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingénierie des prompts
    AperçuGénérateur de promptsUtiliser des modèles de promptsAméliorateur de promptsÊtre clair et directUtiliser des exemples (prompting multi-shot)Laisser Claude réfléchir (CoT)Utiliser des balises XMLDonner un rôle à Claude (prompts système)Pré-remplir la réponse de ClaudeChaîner des prompts complexesConseils pour le contexte longConseils pour la réflexion étendue
    Tester et évaluer
    Définir les critères de succèsDévelopper des cas de testUtiliser l'outil d'évaluationRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRefus en streamingRéduire les fuites de promptsGarder Claude dans le rôle
    Administration et surveillance
    Aperçu de l'API AdminAPI Utilisation et coûtsAPI Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Claude sur des plateformes tierces

    Claude sur Vertex AI

    Les modèles Claude d'Anthropic sont désormais généralement disponibles via Vertex AI.

    L'API Vertex pour accéder à Claude est presque identique à l'API Messages et prend en charge toutes les mêmes options, avec deux différences clés :

    • Dans Vertex, model n'est pas transmis dans le corps de la requête. Au lieu de cela, il est spécifié dans l'URL du point de terminaison Google Cloud.
    • Dans Vertex, anthropic_version est transmis dans le corps de la requête (plutôt que comme en-tête), et doit être défini sur la valeur vertex-2023-10-16.

    Vertex est également pris en charge par les SDK clients officiels d'Anthropic. Ce guide vous guidera tout au long du processus de création d'une requête à Claude sur Vertex AI en Python ou TypeScript.

    Notez que ce guide suppose que vous avez déjà un projet GCP capable d'utiliser Vertex AI. Consultez utiliser les modèles Claude 3 d'Anthropic pour plus d'informations sur la configuration requise, ainsi qu'une procédure pas à pas complète.

    Installer un SDK pour accéder à Vertex AI

    Tout d'abord, installez le SDK client d'Anthropic pour le langage de votre choix.

    pip install -U google-cloud-aiplatform "anthropic[vertex]"

    Accès à Vertex AI

    Disponibilité des modèles

    Notez que la disponibilité des modèles Anthropic varie selon la région. Recherchez « Claude » dans le Vertex AI Model Garden ou accédez à Utiliser Claude 3 pour les dernières informations.

    ID de modèle API

    ModèleID de modèle API Vertex AI
    Claude Sonnet 4.5claude-sonnet-4-5@20250929
    Claude Sonnet 4claude-sonnet-4@20250514
    Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
    Claude Opus 4.5claude-opus-4-5@20251101
    Claude Opus 4.1claude-opus-4-1@20250805
    Claude Opus 4claude-opus-4@20250514
    Claude Opus 3 ⚠️claude-3-opus@20240229
    Claude Haiku 4.5claude-haiku-4-5@20251001
    Claude Haiku 3.5 ⚠️claude-3-5-haiku@20241022
    Claude Haiku 3claude-3-haiku@20240307

    Effectuer des requêtes

    Avant d'exécuter les requêtes, vous devrez peut-être exécuter gcloud auth application-default login pour vous authentifier auprès de GCP.

    L'exemple suivant montre comment générer du texte à partir de Claude sur Vertex AI :

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-sonnet-4-5@20250929",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Consultez nos SDK clients et la documentation officielle Vertex AI pour plus de détails.

    Journalisation des activités

    Vertex fournit un service de journalisation des requêtes-réponses qui permet aux clients de journaliser les invites et les complétions associées à votre utilisation.

    Anthropic recommande que vous journalisiez votre activité sur au moins une base glissante de 30 jours afin de comprendre votre activité et d'enquêter sur tout abus potentiel.

    L'activation de ce service ne donne à Google ou à Anthropic aucun accès à votre contenu.

    Support des fonctionnalités

    Vous pouvez trouver toutes les fonctionnalités actuellement prises en charge sur Vertex ici.

    Points de terminaison mondiaux par rapport aux points de terminaison régionaux

    À partir de Claude Sonnet 4.5 et tous les modèles futurs, Google Vertex AI propose deux types de points de terminaison :

    • Points de terminaison mondiaux : Routage dynamique pour une disponibilité maximale
    • Points de terminaison régionaux : Routage des données garanti via des régions géographiques spécifiques

    Les points de terminaison régionaux incluent une prime tarifaire de 10 % par rapport aux points de terminaison mondiaux.

    Ceci s'applique à Claude Sonnet 4.5 et aux modèles futurs uniquement. Les modèles plus anciens (Claude Sonnet 4, Opus 4 et antérieurs) conservent leurs structures tarifaires existantes.

    Quand utiliser chaque option

    Points de terminaison mondiaux (recommandé) :

    • Fournissent une disponibilité et un temps d'activité maximaux
    • Acheminent dynamiquement les requêtes vers les régions ayant une capacité disponible
    • Aucune prime tarifaire
    • Idéal pour les applications où la résidence des données est flexible
    • Prend en charge uniquement le trafic à l'usage (le débit provisionné nécessite des points de terminaison régionaux)

    Points de terminaison régionaux :

    • Acheminent le trafic via des régions géographiques spécifiques
    • Requis pour la résidence des données et les exigences de conformité
    • Prennent en charge le trafic à l'usage et le débit provisionné
    • La prime tarifaire de 10 % reflète les coûts d'infrastructure pour la capacité régionale dédiée

    Implémentation

    Utilisation des points de terminaison mondiaux (recommandé) :

    Définissez le paramètre region sur "global" lors de l'initialisation du client :

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-sonnet-4-5@20250929",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Utilisation des points de terminaison régionaux :

    Spécifiez une région spécifique comme "us-east1" ou "europe-west1" :

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "us-east1"  # Specify a specific region
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-sonnet-4-5@20250929",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Ressources supplémentaires

    • Tarification Google Vertex AI : cloud.google.com/vertex-ai/generative-ai/pricing
    • Documentation des modèles Claude : Claude sur Vertex AI
    • Article de blog Google : Point de terminaison mondial pour les modèles Claude
    • Détails de tarification Anthropic : Documentation de tarification
    • Installer un SDK pour accéder à Vertex AI
    • Accès à Vertex AI
    • Disponibilité des modèles
    • Effectuer des requêtes
    • Journalisation des activités
    • Support des fonctionnalités
    • Points de terminaison mondiaux par rapport aux points de terminaison régionaux
    • Quand utiliser chaque option
    • Implémentation
    • Ressources supplémentaires