Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Modellfähigkeiten

    Effort

    Kontrollieren Sie, wie viele Token Claude beim Antworten mit dem Effort-Parameter verwendet, und wägen Sie zwischen Gründlichkeit der Antwort und Token-Effizienz ab.

    Der Effort-Parameter ermöglicht es Ihnen zu kontrollieren, wie bereitwillig Claude Token beim Antworten auf Anfragen ausgibt. Dies gibt Ihnen die Möglichkeit, zwischen Gründlichkeit der Antwort und Token-Effizienz abzuwägen, alles mit einem einzigen Modell. Der Effort-Parameter ist allgemein auf allen unterstützten Modellen verfügbar und erfordert keinen Beta-Header.

    Der Effort-Parameter wird von Claude Opus 4.6 und Claude Opus 4.5 unterstützt.

    Bei Claude Opus 4.6 ersetzt Effort budget_tokens als empfohlene Methode zur Kontrolle der Thinking-Tiefe. Kombinieren Sie Effort mit adaptive thinking (thinking: {type: "adaptive"}) für das beste Erlebnis. Während budget_tokens auf Opus 4.6 noch akzeptiert wird, ist es veraltet und wird in einer zukünftigen Modellversion entfernt. Bei high (Standard) und max Effort wird Claude fast immer denken. Bei niedrigeren Effort-Stufen kann es das Denken bei einfacheren Problemen überspringen.

    Wie Effort funktioniert

    Standardmäßig verwendet Claude hohen Effort – gibt so viele Token aus, wie für hervorragende Ergebnisse erforderlich sind. Sie können die Effort-Stufe auf max erhöhen, um die absolut höchste Leistung zu erzielen, oder sie senken, um sparsamer mit Token-Nutzung umzugehen und Geschwindigkeit und Kosten zu optimieren, während Sie eine gewisse Leistungsreduktion akzeptieren.

    Das Setzen von effort auf "high" erzeugt genau das gleiche Verhalten wie das Weglassen des effort-Parameters ganz.

    Der Effort-Parameter beeinflusst alle Token in der Antwort, einschließlich:

    • Textantworten und Erklärungen
    • Tool-Aufrufe und Funktionsargumente
    • Erweitertes Denken (wenn aktiviert)

    Dieser Ansatz hat zwei große Vorteile:

    1. Es erfordert nicht, dass Denken aktiviert ist, um es zu verwenden.
    2. Es kann alle Token-Ausgaben beeinflussen, einschließlich Tool-Aufrufe. Zum Beispiel würde niedrigerer Effort bedeuten, dass Claude weniger Tool-Aufrufe macht. Dies gibt einen viel größeren Grad an Kontrolle über die Effizienz.

    Effort-Stufen

    StufeBeschreibungTypischer Anwendungsfall
    maxAbsolute maximale Leistung ohne Einschränkungen bei der Token-Ausgabe. Nur Opus 4.6 – Anfragen mit max auf anderen Modellen geben einen Fehler zurück.Aufgaben, die tiefste mögliche Überlegung und gründlichste Analyse erfordern
    highHohe Leistung. Entspricht dem Nicht-Setzen des Parameters.Komplexes Denken, schwierige Codierungsprobleme, agentengestützte Aufgaben
    mediumAusgewogener Ansatz mit moderaten Token-Einsparungen.Agentengestützte Aufgaben, die ein Gleichgewicht zwischen Geschwindigkeit, Kosten und Leistung erfordern
    lowAm effizientesten. Erhebliche Token-Einsparungen mit einiger Leistungsreduktion.Einfachere Aufgaben, die die beste Geschwindigkeit und niedrigste Kosten benötigen, wie z. B. Subagenten

    Effort ist ein Verhaltensignal, kein striktes Token-Budget. Bei niedrigeren Effort-Stufen wird Claude bei ausreichend schwierigen Problemen immer noch denken – es wird nur weniger denken als bei höheren Effort-Stufen für das gleiche Problem.

    Grundlegende Verwendung

    import anthropic
    
    client = anthropic.Anthropic()
    
    response = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=4096,
        messages=[{
            "role": "user",
            "content": "Analyze the trade-offs between microservices and monolithic architectures"
        }],
        output_config={
            "effort": "medium"
        }
    )
    
    print(response.content[0].text)

    Wann sollte ich den Effort-Parameter anpassen?

    • Verwenden Sie max Effort, wenn Sie die absolut höchste Leistung ohne Einschränkungen benötigen – das gründlichste Denken und die tiefste Analyse. Nur auf Opus 4.6 verfügbar; Anfragen mit max auf anderen Modellen geben einen Fehler zurück.
    • Verwenden Sie high Effort (Standard), wenn Sie Claudes beste Arbeit benötigen – komplexes Denken, nuancierte Analyse, schwierige Codierungsprobleme oder jede Aufgabe, bei der Qualität die oberste Priorität ist.
    • Verwenden Sie medium Effort als ausgewogene Option, wenn Sie solide Leistung ohne die volle Token-Ausgabe von hohem Effort möchten.
    • Verwenden Sie low Effort, wenn Sie Geschwindigkeit optimieren (weil Claude mit weniger Token antwortet) oder Kosten – zum Beispiel einfache Klassifizierungsaufgaben, schnelle Nachschlagungen oder Hochvolumen-Anwendungsfälle, bei denen marginale Qualitätsverbesserungen zusätzliche Latenz oder Ausgaben nicht rechtfertigen.

    Effort mit Tool-Nutzung

    Bei der Verwendung von Tools beeinflusst der Effort-Parameter sowohl die Erklärungen um Tool-Aufrufe als auch die Tool-Aufrufe selbst. Niedrigere Effort-Stufen neigen dazu zu:

    • Mehrere Operationen in weniger Tool-Aufrufen kombinieren
    • Weniger Tool-Aufrufe machen
    • Direkt zur Aktion übergehen ohne Präambel
    • Knappe Bestätigungsmeldungen nach Abschluss verwenden

    Höhere Effort-Stufen können:

    • Mehr Tool-Aufrufe machen
    • Den Plan vor der Aktion erklären
    • Detaillierte Zusammenfassungen von Änderungen bereitstellen
    • Umfassendere Code-Kommentare enthalten

    Effort mit erweitertem Denken

    Der Effort-Parameter funktioniert zusammen mit erweitertem Denken. Sein Verhalten hängt vom Modell ab:

    • Claude Opus 4.6 verwendet adaptive thinking (thinking: {type: "adaptive"}), wobei Effort die empfohlene Kontrolle für die Thinking-Tiefe ist. Während budget_tokens auf Opus 4.6 noch akzeptiert wird, ist es veraltet und wird in einer zukünftigen Version entfernt. Bei high und max Effort denkt Claude fast immer tief. Bei niedrigeren Stufen kann es das Denken bei einfacheren Problemen überspringen.
    • Claude Opus 4.5 verwendet manuelles Denken (thinking: {type: "enabled", budget_tokens: N}), wobei Effort zusammen mit dem Thinking-Token-Budget funktioniert. Setzen Sie die Effort-Stufe für Ihre Aufgabe, dann setzen Sie das Thinking-Token-Budget basierend auf der Aufgabenkomplexität.

    Der Effort-Parameter kann mit oder ohne aktiviertes erweitertes Denken verwendet werden. Wenn er ohne Denken verwendet wird, kontrolliert er immer noch die Gesamttoken-Ausgabe für Textantworten und Tool-Aufrufe.

    Best Practices

    1. Beginnen Sie mit high: Verwenden Sie niedrigere Effort-Stufen, um Leistung gegen Token-Effizienz abzuwägen.
    2. Verwenden Sie low für geschwindigkeitssensitive oder einfache Aufgaben: Wenn Latenz wichtig ist oder Aufgaben unkompliziert sind, kann niedriger Effort die Antwortzeiten und Kosten erheblich reduzieren.
    3. Testen Sie Ihren Anwendungsfall: Die Auswirkung von Effort-Stufen variiert je nach Aufgabentyp. Evaluieren Sie die Leistung auf Ihren spezifischen Anwendungsfällen, bevor Sie bereitstellen.
    4. Erwägen Sie dynamischen Effort: Passen Sie Effort basierend auf Aufgabenkomplexität an. Einfache Abfragen können niedriger Effort rechtfertigen, während agentengestützte Codierung und komplexes Denken von hohem Effort profitieren.

    Was this page helpful?

    • Wie Effort funktioniert
    • Effort-Stufen
    • Grundlegende Verwendung
    • Wann sollte ich den Effort-Parameter anpassen?
    • Effort mit Tool-Nutzung
    • Effort mit erweitertem Denken
    • Best Practices