Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude erstellen
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitung
    Funktionen
    Prompt CachingExtended ThinkingAdaptive ThinkingAufwandStreaming MessagesBatch-VerarbeitungZitateMehrsprachige UnterstützungToken-ZählungEmbeddingsVisionPDF-UnterstützungFiles APISuchergebnisseStrukturierte Ausgaben
    Tools
    ÜbersichtTool-Nutzung implementierenFeingranulares Tool-StreamingBash-ToolCode-Ausführungs-ToolProgrammatischer Tool-AufrufComputer-Use-ToolText-Editor-ToolWeb-Fetch-ToolWeb-Such-ToolMemory-ToolTool-Such-Tool
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Vorschau)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot-Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System-Prompts)Komplexe Prompts verkettenTipps für langen KontextExtended Thinking Tipps
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungs-Tool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Claude auf Plattformen von Drittanbietern

    Claude auf Vertex AI

    Anthropics Claude-Modelle sind jetzt allgemein über Vertex AI verfügbar.

    Die Vertex API für den Zugriff auf Claude ist fast identisch mit der Messages API und unterstützt alle gleichen Optionen, mit zwei wichtigen Unterschieden:

    • In Vertex wird model nicht im Request-Body übergeben. Stattdessen wird es in der Google Cloud Endpoint-URL angegeben.
    • In Vertex wird anthropic_version im Request-Body übergeben (nicht als Header), und muss auf den Wert vertex-2023-10-16 gesetzt werden.

    Vertex wird auch von Anthropics offiziellen Client SDKs unterstützt. Dieses Handbuch führt Sie durch den Prozess, eine Anfrage an Claude auf Vertex AI in Python oder TypeScript zu stellen.

    Beachten Sie, dass dieses Handbuch davon ausgeht, dass Sie bereits ein GCP-Projekt haben, das Vertex AI verwenden kann. Siehe Verwendung der Claude 3 Modelle von Anthropic für weitere Informationen zur erforderlichen Einrichtung sowie eine vollständige Anleitung.

    Installieren Sie ein SDK für den Zugriff auf Vertex AI

    Installieren Sie zunächst Anthropics Client SDK für Ihre Sprache der Wahl.

    pip install -U google-cloud-aiplatform "anthropic[vertex]"

    Zugriff auf Vertex AI

    Modellverfügbarkeit

    Beachten Sie, dass die Verfügbarkeit von Anthropic-Modellen je nach Region variiert. Suchen Sie nach "Claude" im Vertex AI Model Garden oder gehen Sie zu Claude 3 verwenden für die neuesten Informationen.

    API-Modell-IDs

    ModellVertex AI API-Modell-ID
    Claude Opus 4.6claude-opus-4-6
    Claude Sonnet 4.5claude-sonnet-4-5@20250929
    Claude Sonnet 4claude-sonnet-4@20250514
    Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
    Claude Opus 4.5claude-opus-4-5@20251101
    Claude Opus 4.1claude-opus-4-1@20250805
    Claude Opus 4claude-opus-4@20250514
    Claude Haiku 4.5claude-haiku-4-5@20251001
    Claude Haiku 3.5 ⚠️claude-3-5-haiku@20241022
    Claude Haiku 3claude-3-haiku@20240307

    Anfragen stellen

    Bevor Sie Anfragen ausführen, müssen Sie möglicherweise gcloud auth application-default login ausführen, um sich bei GCP zu authentifizieren.

    Das folgende Beispiel zeigt, wie Sie Text von Claude auf Vertex AI generieren:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Weitere Details finden Sie in unseren Client SDKs und der offiziellen Vertex AI Dokumentation.

    Aktivitätsprotokollierung

    Vertex bietet einen Request-Response-Protokollierungsdienst, mit dem Kunden die Prompts und Completions Ihrer Nutzung protokollieren können.

    Anthropic empfiehlt, dass Sie Ihre Aktivität mindestens auf einer 30-Tage-Rollbasis protokollieren, um Ihre Aktivität zu verstehen und potenzielle Missbrauchsfälle zu untersuchen.

    Das Aktivieren dieses Dienstes gibt Google oder Anthropic keinen Zugriff auf Ihre Inhalte.

    Funktionsunterstützung

    Sie können alle derzeit auf Vertex unterstützten Funktionen hier finden.

    Globale vs. regionale Endpoints

    Ab Claude Sonnet 4.5 und allen zukünftigen Modellen bietet Google Vertex AI zwei Endpoint-Typen:

    • Globale Endpoints: Dynamisches Routing für maximale Verfügbarkeit
    • Regionale Endpoints: Garantiertes Daten-Routing durch spezifische geografische Regionen

    Regionale Endpoints beinhalten einen 10%-Preisaufschlag gegenüber globalen Endpoints.

    Dies gilt nur für Claude Sonnet 4.5 und zukünftige Modelle. Ältere Modelle (Claude Sonnet 4, Opus 4 und früher) behalten ihre bestehenden Preisstrukturen bei.

    Wann sollte man jede Option verwenden

    Globale Endpoints (empfohlen):

    • Bieten maximale Verfügbarkeit und Uptime
    • Leiten Anfragen dynamisch zu Regionen mit verfügbarer Kapazität weiter
    • Kein Preisaufschlag
    • Am besten für Anwendungen, bei denen Datenresidenz flexibel ist
    • Unterstützt nur Pay-as-you-go-Verkehr (bereitgestellter Durchsatz erfordert regionale Endpoints)

    Regionale Endpoints:

    • Leiten Verkehr durch spezifische geografische Regionen weiter
    • Erforderlich für Datenresidenz und Compliance-Anforderungen
    • Unterstützen sowohl Pay-as-you-go als auch bereitgestellten Durchsatz
    • 10%-Preisaufschlag spiegelt Infrastrukturkosten für dedizierte regionale Kapazität wider

    Implementierung

    Verwendung globaler Endpoints (empfohlen):

    Setzen Sie den region-Parameter auf "global" beim Initialisieren des Clients:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Verwendung regionaler Endpoints:

    Geben Sie eine spezifische Region wie "us-east1" oder "europe-west1" an:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "us-east1"  # Specify a specific region
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Zusätzliche Ressourcen

    • Google Vertex AI Preisgestaltung: cloud.google.com/vertex-ai/generative-ai/pricing
    • Claude Modelle Dokumentation: Claude auf Vertex AI
    • Google Blog-Beitrag: Globaler Endpoint für Claude Modelle
    • Anthropic Preisdetails: Preisdokumentation

    Was this page helpful?

    • Installieren Sie ein SDK für den Zugriff auf Vertex AI
    • Zugriff auf Vertex AI
    • Modellverfügbarkeit
    • Anfragen stellen
    • Aktivitätsprotokollierung
    • Funktionsunterstützung
    • Globale vs. regionale Endpoints
    • Wann sollte man jede Option verwenden
    • Implementierung
    • Zusätzliche Ressourcen