Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Claude auf Plattformen von Drittanbietern

    Claude auf Vertex AI

    Die Claude-Modelle von Anthropic sind jetzt allgemein über Vertex AI verfügbar.

    Die Vertex API für den Zugriff auf Claude ist fast identisch mit der Messages API und unterstützt alle gleichen Optionen, mit zwei wichtigen Unterschieden:

    • In Vertex wird model nicht im Request-Body übergeben. Stattdessen wird es in der Google Cloud Endpoint-URL angegeben.
    • In Vertex wird anthropic_version im Request-Body übergeben (nicht als Header) und muss auf den Wert vertex-2023-10-16 gesetzt werden.

    Vertex wird auch von Anthropics offiziellen Client SDKs unterstützt. Diese Anleitung führt Sie durch den Prozess, eine Anfrage an Claude auf Vertex AI in Python oder TypeScript zu stellen.

    Beachten Sie, dass diese Anleitung davon ausgeht, dass Sie bereits ein GCP-Projekt haben, das Vertex AI verwenden kann. Weitere Informationen zum erforderlichen Setup sowie eine vollständige Anleitung finden Sie unter Verwenden der Claude 3-Modelle von Anthropic.

    Installieren Sie ein SDK für den Zugriff auf Vertex AI

    Installieren Sie zunächst das Client SDK von Anthropic für Ihre Sprache.

    Zugriff auf Vertex AI

    Modellverfügbarkeit

    Beachten Sie, dass die Verfügbarkeit von Anthropic-Modellen je nach Region unterschiedlich ist. Suchen Sie nach "Claude" im Vertex AI Model Garden oder gehen Sie zu Claude 3 verwenden, um die neuesten Informationen zu erhalten.

    API-Modell-IDs

    ModellVertex AI API-Modell-ID
    Claude Opus 4.6claude-opus-4-6
    Claude Sonnet 4.6claude-sonnet-4-6
    Claude Sonnet 4.5claude-sonnet-4-5@20250929
    Claude Sonnet 4claude-sonnet-4@20250514
    Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
    Claude Opus 4.5claude-opus-4-5@20251101
    Claude Opus 4.1claude-opus-4-1@20250805
    Claude Opus 4claude-opus-4@20250514
    Claude Haiku 4.5claude-haiku-4-5@20251001
    Claude Haiku 3.5 ⚠️claude-3-5-haiku@20241022
    Claude Haiku 3claude-3-haiku@20240307

    Anfragen stellen

    Bevor Sie Anfragen ausführen, müssen Sie möglicherweise gcloud auth application-default login ausführen, um sich bei GCP zu authentifizieren.

    Das folgende Beispiel zeigt, wie Sie Text von Claude auf Vertex AI generieren:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Weitere Details finden Sie in unseren Client SDKs und der offiziellen Vertex AI-Dokumentation.

    Claude ist auch über Amazon Bedrock und Microsoft Foundry verfügbar.

    Aktivitätsprotokollierung

    Vertex bietet einen Request-Response-Protokollierungsdienst, mit dem Kunden die Prompts und Completions, die mit Ihrer Nutzung verbunden sind, protokollieren können.

    Anthropic empfiehlt, dass Sie Ihre Aktivität mindestens auf einer 30-Tage-Rollbasis protokollieren, um Ihre Aktivität zu verstehen und mögliche Missbräuche zu untersuchen.

    Das Aktivieren dieses Dienstes gibt Google oder Anthropic keinen Zugriff auf Ihre Inhalte.

    Funktionsunterstützung

    Sie können alle derzeit auf Vertex unterstützten Funktionen hier finden.

    Globale vs. regionale Endpunkte

    Ab Claude Sonnet 4.5 und allen zukünftigen Modellen bietet Google Vertex AI zwei Endpunkt-Typen:

    • Globale Endpunkte: Dynamisches Routing für maximale Verfügbarkeit
    • Regionale Endpunkte: Garantiertes Daten-Routing durch spezifische geografische Regionen

    Regionale Endpunkte beinhalten einen 10%-Preisaufschlag gegenüber globalen Endpunkten.

    Dies gilt nur für Claude Sonnet 4.5 und zukünftige Modelle. Ältere Modelle (Claude Sonnet 4, Opus 4 und früher) behalten ihre bestehenden Preisstrukturen bei.

    Wann sollte man jede Option verwenden

    Globale Endpunkte (empfohlen):

    • Bieten maximale Verfügbarkeit und Betriebszeit
    • Leiten Anfragen dynamisch an Regionen mit verfügbarer Kapazität weiter
    • Kein Preisaufschlag
    • Beste Option für Anwendungen, bei denen Datenspeicherort flexibel ist
    • Unterstützt nur Pay-as-you-go-Verkehr (bereitgestellter Durchsatz erfordert regionale Endpunkte)

    Regionale Endpunkte:

    • Leiten Verkehr durch spezifische geografische Regionen weiter
    • Erforderlich für Datenspeicherort und Compliance-Anforderungen
    • Unterstützen sowohl Pay-as-you-go als auch bereitgestellten Durchsatz
    • 10%-Preisaufschlag spiegelt Infrastrukturkosten für dedizierte regionale Kapazität wider

    Implementierung

    Verwendung globaler Endpunkte (empfohlen):

    Setzen Sie den region-Parameter auf "global" beim Initialisieren des Clients:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Verwendung regionaler Endpunkte:

    Geben Sie eine spezifische Region wie "us-east1" oder "europe-west1" an:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "us-east1"  # Specify a specific region
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Zusätzliche Ressourcen

    • Google Vertex AI-Preise: cloud.google.com/vertex-ai/generative-ai/pricing
    • Claude-Modelle-Dokumentation: Claude auf Vertex AI
    • Google-Blogbeitrag: Globaler Endpunkt für Claude-Modelle
    • Anthropic-Preisdetails: Preisdokumentation

    Was this page helpful?

    • Installieren Sie ein SDK für den Zugriff auf Vertex AI
    • Zugriff auf Vertex AI
    • Modellverfügbarkeit
    • Anfragen stellen
    • Aktivitätsprotokollierung
    • Funktionsunterstützung
    • Globale vs. regionale Endpunkte
    • Wann sollte man jede Option verwenden
    • Implementierung
    • Zusätzliche Ressourcen