Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Verwaltung und Überwachung

    Datenspeicherort

    Verwalten Sie, wo die Modellableitung ausgeführt wird und wo Daten mit geografischen Kontrollen gespeichert werden.

    Mit Datenspeicherort-Kontrollen können Sie verwalten, wo Ihre Daten verarbeitet und gespeichert werden. Zwei unabhängige Einstellungen regeln dies:

    • Inference Geo: Steuert, wo die Modellableitung ausgeführt wird, auf Basis pro Anfrage. Wird über den inference_geo API-Parameter oder als Workspace-Standard festgelegt.
    • Workspace Geo: Steuert, wo Daten im Ruhezustand gespeichert werden und wo die Endpunktverarbeitung (Bildtranskodierung, Code-Ausführung usw.) stattfindet. Wird auf Workspace-Ebene in der Console konfiguriert.

    Inference Geo

    Der inference_geo-Parameter steuert, wo die Modellableitung für eine bestimmte API-Anfrage ausgeführt wird. Fügen Sie ihn zu jedem POST /v1/messages-Aufruf hinzu.

    WertBeschreibung
    "global"Standard. Die Ableitung kann in jeder verfügbaren Geografie für optimale Leistung und Verfügbarkeit ausgeführt werden.
    "us"Die Ableitung wird nur in US-basierter Infrastruktur ausgeführt.

    API-Verwendung

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "inference_geo": "us",
            "messages": [{
                "role": "user",
                "content": "Summarize the key points of this document."
            }]
        }'

    Antwort

    Das Antwort-usage-Objekt enthält ein inference_geo-Feld, das angibt, wo die Ableitung ausgeführt wurde:

    {
      "usage": {
        "input_tokens": 25,
        "output_tokens": 150,
        "inference_geo": "us"
      }
    }

    Modellverfügbarkeit

    Der inference_geo-Parameter wird auf Claude Opus 4.6 und allen nachfolgenden Modellen unterstützt. Ältere Modelle, die vor Opus 4.6 veröffentlicht wurden, unterstützen den Parameter nicht. Anfragen mit inference_geo auf Legacy-Modellen geben einen 400-Fehler zurück.

    Der inference_geo-Parameter ist nur auf der Claude API (1P) verfügbar. Auf Plattformen von Drittanbietern (AWS Bedrock, Google Vertex AI) wird die Inferenzregion durch die Endpunkt-URL oder das Inferenzprofil bestimmt, daher ist inference_geo nicht anwendbar. Der inference_geo-Parameter ist auch nicht über den OpenAI SDK-Kompatibilitätsendpunkt verfügbar.

    Einschränkungen auf Workspace-Ebene

    Workspace-Einstellungen unterstützen auch die Einschränkung, welche Inference-Geos verfügbar sind:

    • allowed_inference_geos: Schränkt ein, welche Geos ein Workspace verwenden kann. Wenn eine Anfrage ein inference_geo angibt, das nicht in dieser Liste enthalten ist, gibt die API einen Fehler zurück.
    • default_inference_geo: Legt die Fallback-Geo fest, wenn inference_geo in einer Anfrage weggelassen wird. Einzelne Anfragen können dies überschreiben, indem sie inference_geo explizit festlegen.

    Diese Einstellungen können über die Console oder die Admin API unter dem Feld data_residency konfiguriert werden.

    Workspace Geo

    Workspace Geo wird beim Erstellen eines Workspace festgelegt und kann danach nicht mehr geändert werden. Derzeit ist "us" die einzige verfügbare Workspace-Geo.

    Um Workspace Geo festzulegen, erstellen Sie einen neuen Workspace in der Console:

    1. Gehen Sie zu Settings > Workspaces.
    2. Erstellen Sie einen neuen Workspace.
    3. Wählen Sie die Workspace-Geo aus.

    Preisgestaltung

    Die Preisgestaltung für Datenspeicherort variiert je nach Modellgeneration:

    • Claude Opus 4.6 und neuer: Nur US-Ableitung (inference_geo: "us") wird mit dem 1,1-fachen des Standardsatzes über alle Token-Preiskategorien hinweg berechnet (Input-Token, Output-Token, Cache-Schreibvorgänge und Cache-Lesevorgänge).
    • Globales Routing (inference_geo: "global" oder weggelassen): Standardpreisgestaltung gilt.
    • Ältere Modelle: Die vorhandene Preisgestaltung bleibt unverändert, unabhängig von inference_geo-Einstellungen.

    Diese Preisgestaltung gilt nur für die Claude API (1P). Plattformen von Drittanbietern (AWS Bedrock, Google Vertex AI, Microsoft Foundry) haben ihre eigene regionale Preisgestaltung. Weitere Informationen finden Sie auf der Preisseite.

    Wenn Sie Priority Tier verwenden, beeinflusst der 1,1x-Multiplikator für nur US-Ableitung auch, wie Token gegen Ihre Priority Tier-Kapazität gezählt werden. Jedes Token, das mit inference_geo: "us" verbraucht wird, zieht 1,1 Token aus Ihrem zugesagten TPM ab, konsistent mit der Art und Weise, wie andere Preismultiplikatoren (Prompt-Caching, langer Kontext) die Abbauraten beeinflussen.

    Batch API-Unterstützung

    Der inference_geo-Parameter wird auf der Batch API unterstützt. Jede Anfrage in einem Batch kann ihren eigenen inference_geo-Wert angeben.

    Migration von Legacy-Opt-outs

    Wenn Ihre Organisation zuvor aus dem globalen Routing ausgestiegen ist, um die Ableitung in den USA zu halten, wurde Ihr Workspace automatisch mit allowed_inference_geos: ["us"] und default_inference_geo: "us" konfiguriert. Es sind keine Code-Änderungen erforderlich. Ihre bestehenden Datenspeicherort-Anforderungen werden weiterhin durch die neuen Geo-Kontrollen durchgesetzt.

    Was sich geändert hat

    Das Legacy-Opt-out war eine Einstellung auf Organisationsebene, die alle Anfragen auf US-basierte Infrastruktur beschränkte. Die neuen Datenspeicherort-Kontrollen ersetzen dies durch zwei Mechanismen:

    • Pro-Anfrage-Kontrolle: Der inference_geo-Parameter ermöglicht es Ihnen, "us" oder "global" bei jedem API-Aufruf anzugeben, was Ihnen Flexibilität auf Anfrage-Ebene gibt.
    • Workspace-Kontrollen: Die Einstellungen default_inference_geo und allowed_inference_geos in der Console ermöglichen es Ihnen, Geo-Richtlinien über alle Schlüssel in einem Workspace durchzusetzen.

    Was mit Ihrem Workspace geschah

    Ihr Workspace wurde automatisch migriert:

    Legacy-EinstellungNeues Äquivalent
    Global Routing Opt-out (nur US)allowed_inference_geos: ["us"], default_inference_geo: "us"

    Alle API-Anfragen mit Schlüsseln aus Ihrem Workspace werden weiterhin auf US-basierter Infrastruktur ausgeführt. Es ist keine Aktion erforderlich, um Ihr aktuelles Verhalten beizubehalten.

    Wenn Sie globales Routing verwenden möchten

    Wenn sich Ihre Datenspeicherort-Anforderungen geändert haben und Sie die Vorteile des globalen Routings für bessere Leistung und Verfügbarkeit nutzen möchten, aktualisieren Sie die Inference-Geo-Einstellungen Ihres Workspace, um "global" in die zulässigen Geos einzubeziehen und default_inference_geo auf "global" zu setzen. Weitere Informationen finden Sie unter Einschränkungen auf Workspace-Ebene.

    Auswirkungen auf die Preisgestaltung

    Legacy-Modelle sind von dieser Migration nicht betroffen. Aktuelle Preisgestaltung für neuere Modelle finden Sie unter Preisgestaltung.

    Aktuelle Einschränkungen

    • Gemeinsame Ratenlimits: Ratenlimits werden über alle Geos hinweg gemeinsam genutzt.
    • Inference Geo: Nur "us" und "global" sind beim Start verfügbar. Weitere Regionen werden im Laufe der Zeit hinzugefügt.
    • Workspace Geo: Derzeit ist nur "us" verfügbar. Workspace Geo kann nach der Workspace-Erstellung nicht geändert werden.

    Nächste Schritte

    Preisgestaltung

    Zeigen Sie Details zur Preisgestaltung für Datenspeicherort an.

    Workspaces

    Erfahren Sie mehr über die Workspace-Konfiguration.

    Usage and Cost API

    Verfolgen Sie Nutzung und Kosten nach Datenspeicherort.

    Was this page helpful?

    • Inference Geo
    • API-Verwendung
    • Antwort
    • Modellverfügbarkeit
    • Einschränkungen auf Workspace-Ebene
    • Workspace Geo
    • Preisgestaltung
    • Batch API-Unterstützung
    • Migration von Legacy-Opt-outs
    • Was sich geändert hat
    • Was mit Ihrem Workspace geschah
    • Wenn Sie globales Routing verwenden möchten
    • Auswirkungen auf die Preisgestaltung
    • Aktuelle Einschränkungen
    • Nächste Schritte