Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtEin Modell auswählenNeuerungen in Claude 4.5Migration zu Claude 4.5ModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtVerwendung der Messages APIKontextfensterBest Practices für Prompting
    Funktionen
    Prompt-CachingKontext-BearbeitungErweitertes DenkenAufwandStreaming MessagesBatch-VerarbeitungZitationenMehrsprachige UnterstützungToken-ZählungEmbeddingsVisionPDF-UnterstützungFiles APISuchergebnisseStrukturierte AusgabenGoogle Sheets Add-on
    Tools
    ÜbersichtTool-Verwendung implementierenToken-effiziente Tool-VerwendungFeingranulares Tool-StreamingBash-ToolCode-Ausführungs-ToolProgrammatischer Tool-AufrufComputer-Use-ToolText-Editor-ToolWeb-Abruf-ToolWeb-Such-ToolMemory-ToolTool-Such-Tool
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills mit der API verwenden
    Agent SDK
    ÜbersichtTypeScript SDKPython SDKMigrationsleitfaden
    Leitfäden
    Streaming-EingabeBerechtigungen verwaltenSitzungsverwaltungStrukturierte Ausgaben im SDKAgent SDK hostenSystem-Prompts ändernMCP im SDKBenutzerdefinierte ToolsSubagents im SDKSlash-Befehle im SDKAgent Skills im SDKKosten und Nutzung verfolgenTodo-ListenPlugins im SDK
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Drittanbieter-Plattformen
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot-Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System-Prompts)Claudes Antwort vorausfüllenKomplexe Prompts verkettenTipps für langen KontextTipps für erweitertes Denken
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API-ÜbersichtUsage and Cost APIClaude Code Analytics API
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Claude auf Drittanbieter-Plattformen

    Claude auf Vertex AI

    Die Claude-Modelle von Anthropic sind jetzt allgemein über Vertex AI verfügbar.

    Die Vertex API für den Zugriff auf Claude ist fast identisch mit der Messages API und unterstützt alle gleichen Optionen, mit zwei wichtigen Unterschieden:

    • In Vertex wird model nicht im Request-Body übergeben. Stattdessen wird es in der Google Cloud Endpoint-URL angegeben.
    • In Vertex wird anthropic_version im Request-Body übergeben (nicht als Header), und muss auf den Wert vertex-2023-10-16 gesetzt werden.

    Vertex wird auch von Anthropics offiziellen Client SDKs unterstützt. Dieser Leitfaden führt Sie durch den Prozess, eine Anfrage an Claude auf Vertex AI entweder in Python oder TypeScript zu stellen.

    Beachten Sie, dass dieser Leitfaden davon ausgeht, dass Sie bereits ein GCP-Projekt haben, das Vertex AI verwenden kann. Weitere Informationen zur erforderlichen Einrichtung sowie eine vollständige Anleitung finden Sie unter Verwendung der Claude 3 Modelle von Anthropic.

    Installieren Sie ein SDK für den Zugriff auf Vertex AI

    Installieren Sie zunächst das Client SDK von Anthropic für Ihre Sprache der Wahl.

    pip install -U google-cloud-aiplatform "anthropic[vertex]"

    Zugriff auf Vertex AI

    Modellverfügbarkeit

    Beachten Sie, dass die Verfügbarkeit von Anthropic-Modellen je nach Region variiert. Suchen Sie nach "Claude" im Vertex AI Model Garden oder gehen Sie zu Claude 3 verwenden für die neuesten Informationen.

    API-Modell-IDs

    ModellVertex AI API-Modell-ID
    Claude Sonnet 4.5claude-sonnet-4-5@20250929
    Claude Sonnet 4claude-sonnet-4@20250514
    Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
    Claude Opus 4.5claude-opus-4-5@20251101
    Claude Opus 4.1claude-opus-4-1@20250805
    Claude Opus 4claude-opus-4@20250514
    Claude Opus 3 ⚠️claude-3-opus@20240229
    Claude Haiku 4.5claude-haiku-4-5@20251001
    Claude Haiku 3.5claude-3-5-haiku@20241022
    Claude Haiku 3claude-3-haiku@20240307

    Anfragen stellen

    Bevor Sie Anfragen ausführen, müssen Sie möglicherweise gcloud auth application-default login ausführen, um sich bei GCP zu authentifizieren.

    Das folgende Beispiel zeigt, wie Sie Text von Claude auf Vertex AI generieren:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-sonnet-4-5@20250929",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Weitere Details finden Sie in unseren Client SDKs und der offiziellen Vertex AI Dokumentation.

    Aktivitätsprotokollierung

    Vertex bietet einen Request-Response-Protokollierungsdienst, mit dem Kunden die Prompts und Completions Ihrer Nutzung protokollieren können.

    Anthropic empfiehlt, dass Sie Ihre Aktivität mindestens auf einer 30-Tage-Rollbasis protokollieren, um Ihre Aktivität zu verstehen und mögliche Missbräuche zu untersuchen.

    Das Aktivieren dieses Dienstes gibt Google oder Anthropic keinen Zugriff auf Ihre Inhalte.

    Funktionsunterstützung

    Sie können alle derzeit auf Vertex unterstützten Funktionen hier finden.

    Globale vs. regionale Endpoints

    Ab Claude Sonnet 4.5 und allen zukünftigen Modellen bietet Google Vertex AI zwei Endpoint-Typen:

    • Globale Endpoints: Dynamisches Routing für maximale Verfügbarkeit
    • Regionale Endpoints: Garantiertes Daten-Routing durch spezifische geografische Regionen

    Regionale Endpoints beinhalten einen 10%-Preisaufschlag gegenüber globalen Endpoints.

    Dies gilt nur für Claude Sonnet 4.5 und zukünftige Modelle. Ältere Modelle (Claude Sonnet 4, Opus 4 und früher) behalten ihre bestehenden Preisstrukturen bei.

    Wann sollte man jede Option verwenden

    Globale Endpoints (empfohlen):

    • Bieten maximale Verfügbarkeit und Betriebszeit
    • Leiten Anfragen dynamisch an Regionen mit verfügbarer Kapazität weiter
    • Kein Preisaufschlag
    • Beste Option für Anwendungen, bei denen Datenresidenz flexibel ist
    • Unterstützt nur Pay-as-you-go-Traffic (bereitgestellter Durchsatz erfordert regionale Endpoints)

    Regionale Endpoints:

    • Leiten Traffic durch spezifische geografische Regionen weiter
    • Erforderlich für Datenresidenz und Compliance-Anforderungen
    • Unterstützen sowohl Pay-as-you-go als auch bereitgestellten Durchsatz
    • 10%-Preisaufschlag spiegelt Infrastrukturkosten für dedizierte regionale Kapazität wider

    Implementierung

    Verwendung von globalen Endpoints (empfohlen):

    Setzen Sie den region-Parameter auf "global" beim Initialisieren des Clients:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "global"
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-sonnet-4-5@20250929",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Verwendung von regionalen Endpoints:

    Geben Sie eine spezifische Region wie "us-east1" oder "europe-west1" an:

    from anthropic import AnthropicVertex
    
    project_id = "MY_PROJECT_ID"
    region = "us-east1"  # Specify a specific region
    
    client = AnthropicVertex(project_id=project_id, region=region)
    
    message = client.messages.create(
        model="claude-sonnet-4-5@20250929",
        max_tokens=100,
        messages=[
            {
                "role": "user",
                "content": "Hey Claude!",
            }
        ],
    )
    print(message)

    Zusätzliche Ressourcen

    • Google Vertex AI Preisgestaltung: cloud.google.com/vertex-ai/generative-ai/pricing
    • Claude-Modelle Dokumentation: Claude auf Vertex AI
    • Google Blog-Beitrag: Globaler Endpoint für Claude-Modelle
    • Anthropic Preisdetails: Preisdokumentation
    • Installieren Sie ein SDK für den Zugriff auf Vertex AI
    • Zugriff auf Vertex AI
    • Modellverfügbarkeit
    • Anfragen stellen
    • Aktivitätsprotokollierung
    • Funktionsunterstützung
    • Globale vs. regionale Endpoints
    • Wann sollte man jede Option verwenden
    • Implementierung
    • Zusätzliche Ressourcen