Loading...
    0
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.5Migration zu Claude 4.5ModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenKontextfensterBest Practices für Prompts
    Fähigkeiten
    Prompt-CachingKontext-BearbeitungErweitertes DenkenAufwandStreaming MessagesBatch-VerarbeitungZitateMehrsprachige UnterstützungToken-ZählungEmbeddingsVisionPDF-UnterstützungFiles APISuchergebnisseStrukturierte AusgabenGoogle Sheets Add-on
    Tools
    ÜbersichtTool-Nutzung implementierenToken-effiziente Tool-NutzungFeingranulares Tool-StreamingBash-ToolCode-Ausführungs-ToolProgrammatischer Tool-AufrufComputer-Use-ToolText-Editor-ToolWeb-Fetch-ToolWeb-Such-ToolMemory-ToolTool-Such-Tool
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills mit der API verwenden
    Agent SDK
    ÜbersichtTypeScript SDKPython SDKMigrationsleitfaden
    Leitfäden
    Streaming-EingabeBerechtigungen handhabenSitzungsverwaltungStrukturierte Ausgaben im SDKAgent SDK hostenSystem-Prompts ändernMCP im SDKBenutzerdefinierte ToolsSubagents im SDKSchrägstrich-Befehle im SDKAgent Skills im SDKKosten und Nutzung verfolgenTodo-ListenPlugins im SDK
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Drittanbieter-Plattformen
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Claudeś Antwort vorausfüllenKomplexe Prompts verkettenTipps für langen KontextTipps für erweitertes Denken
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungs-Tool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtNutzungs- und Kosten-APIClaude Code Analytics API
    Console
    Fähigkeiten

    Aufwand

    Kontrollieren Sie, wie viele Token Claude beim Antworten mit dem Aufwand-Parameter verwendet, und wägen Sie zwischen Antwortgründlichkeit und Token-Effizienz ab.

    Der Aufwand-Parameter ermöglicht es Ihnen zu kontrollieren, wie bereit Claude ist, Token beim Antworten auf Anfragen auszugeben. Dies gibt Ihnen die Möglichkeit, zwischen Antwortgründlichkeit und Token-Effizienz abzuwägen, alles mit einem einzigen Modell.

    Der Aufwand-Parameter befindet sich derzeit in der Beta-Phase und wird nur von Claude Opus 4.5 unterstützt.

    Sie müssen den Beta-Header effort-2025-11-24 einschließen, wenn Sie diese Funktion verwenden.

    Wie Aufwand funktioniert

    Standardmäßig verwendet Claude maximalen Aufwand – gibt so viele Token aus, wie nötig, um gründliche Antworten zu liefern. Durch Verringerung der Aufwandsebene können Sie Claude anweisen, sparsamer mit der Token-Nutzung umzugehen und Token als teurere Ressource zu behandeln.

    Das Setzen von effort auf "high" erzeugt genau das gleiche Verhalten wie das Weglassen des effort-Parameters.

    Der Aufwand-Parameter beeinflusst alle Token in der Antwort, einschließlich:

    • Textantworten und Erklärungen
    • Tool-Aufrufe und Funktionsargumente
    • Erweitertes Denken (wenn aktiviert)

    Aufwandsebenen

    EbeneBeschreibungTypischer Anwendungsfall
    highMaximale Gründlichkeit – Claude verwendet so viele Token wie nötig. Entspricht dem Nicht-Setzen des Parameters.Komplexe Analysen, detaillierte Erklärungen, Bildungsinhalte
    mediumAusgewogener Ansatz mit moderaten Token-Einsparungen.Die meisten Produktionsanwendungsfälle, kostenbewusste Anwendungen
    lowEffizienteste Token-Antworten.Hochvolumige Automatisierung, einfache Anfragen, wenn Antworten programmgesteuert verarbeitet werden

    Grundlegende Verwendung

    import anthropic
    
    client = anthropic.Anthropic()
    
    response = client.beta.messages.create(
        model="claude-opus-4-5-20251101",
        betas=["effort-2025-11-24"],
        max_tokens=4096,
        messages=[{
            "role": "user",
            "content": "Analyze the trade-offs between microservices and monolithic architectures"
        }],
        output_config={
            "effort": "medium"
        }
    )
    
    print(response.content[0].text)

    Verhalten nach Aufwandsebene

    Der Aufwand-Parameter steuert hauptsächlich die Ausgabeausführlichkeit und Erklärungstiefe, nicht die Antwortgenauigkeit. Claude führt ähnliche interne Überlegungen unabhängig von der Aufwandsebene durch, passt aber an, wie viel dieser Überlegungen in der Ausgabe erscheint.

    Antworten mit niedrigem Aufwand

    • Antwort direkt angegeben mit minimaler Erklärung
    • Prägnante, effiziente Antworten (1-2 Sätze Kontext)
    • Formeln angezeigt, aber nicht hergeleitet
    • Geht davon aus, dass der Leser die Antwort überprüfen kann
    • Knappe Bestätigungen für Tool-Nutzung („Fertig.", „Behoben.")

    Antworten mit mittlerem Aufwand

    • Kurzer Kontext vor der Antwort
    • Prägnante Begründung mit wichtigen Zwischenschritten
    • Kann ein bearbeitetes Beispiel enthalten
    • Immer noch auf Effizienz ausgerichtet

    Antworten mit hohem Aufwand

    • Strukturiert mit Abschnittsüberschriften
    • Problemaufbau und Variablendefinitionen
    • Schrittweise Lösungsprozess
    • Überprüfung und Plausibilitätsprüfungen
    • Umfangreiche Markdown-Formatierung

    Anwendungsfälle

    Wann man niedrigen Aufwand verwendet

    • Geschwindigkeitsoptimierung: Niedrigere Token-Anzahl bedeutet schnellere Antwortzeiten, vorteilhaft für latenzempfindliche Anwendungen
    • Automatisierte Pipelines: Wenn Antworten von Code verarbeitet werden, anstatt von Menschen gelesen zu werden
    • Hochvolumige Anwendungen: Reduzieren Sie Kosten bei routinemäßigen, einfachen Anfragen
    • Erfahrene Benutzer: Wenn Benutzer keine detaillierten Erklärungen benötigen
    • Schnelle Bestätigungen: Einfache Ja/Nein- oder Statusantworten

    Wann man mittleren Aufwand verwendet

    • Produktions-APIs: Balance zwischen Klarheit und Kosteneffizienz
    • Benutzergerichtete Anwendungen: Genug Kontext ohne übermäßige Ausführlichkeit
    • Kostenbewusste Bereitstellungen: Erhebliche Einsparungen mit minimalen Qualitätseinbußen

    Wann man hohen Aufwand verwendet (oder keinen Aufwand-Parameter)

    • Komplexe Analysen: Wenn Gründlichkeit kritisch ist
    • Bildungsinhalte: Wenn Benutzer das Denken verstehen müssen
    • Dokumentation: Wenn Antworten als Referenzmaterial dienen
    • Debugging: Wenn detaillierte Erklärungen helfen, Probleme zu identifizieren

    Aufwand mit Tool-Nutzung

    Bei Verwendung von Tools beeinflusst der Aufwand-Parameter sowohl die Erklärungen um Tool-Aufrufe als auch die Tool-Aufrufe selbst. Niedrigere Aufwandsebenen neigen dazu zu:

    • Mehrere Operationen in weniger Tool-Aufrufe kombinieren
    • Direkt zur Aktion übergehen ohne Präambel
    • Knappe Bestätigungsmeldungen nach Abschluss verwenden

    Höhere Aufwandsebenen können:

    • Den Plan vor Maßnahmen erklären
    • Detaillierte Zusammenfassungen von Änderungen bereitstellen
    • Umfassendere Code-Kommentare enthalten

    Aufwand mit erweitertem Denken

    Der Aufwand-Parameter funktioniert zusammen mit dem Thinking-Token-Budget, wenn erweitertes Denken aktiviert ist. Diese beiden Steuerelemente dienen unterschiedlichen Zwecken:

    • Aufwand-Parameter: Kontrolliert, wie Claude alle Token ausgibt – einschließlich Thinking-Token, Textantworten und Tool-Aufrufe
    • Thinking-Token-Budget: Legt ein maximales Limit für Thinking-Token speziell fest

    Der Aufwand-Parameter kann mit oder ohne aktiviertes erweitertes Denken verwendet werden. Wenn beide konfiguriert sind:

    1. Bestimmen Sie zunächst die für Ihre Aufgabe geeignete Aufwandsebene
    2. Legen Sie dann das Thinking-Token-Budget basierend auf der Aufgabenkomplexität fest

    Für beste Leistung bei komplexen Denkaufgaben verwenden Sie hohen Aufwand (die Standardeinstellung) mit einem hohen Thinking-Token-Budget. Dies ermöglicht Claude, gründlich zu denken und umfassende Antworten zu liefern.

    Best Practices

    1. Beginnen Sie mit Medium: Für die meisten Anwendungen bietet mittlerer Aufwand ein gutes Gleichgewicht zwischen Qualität und Effizienz.

    2. Verwenden Sie niedrig für Automatisierung: Wenn Antworten von Code verarbeitet werden, anstatt von Menschen gelesen zu werden, kann niedriger Aufwand die Kosten erheblich senken, ohne die Genauigkeit zu beeinträchtigen.

    3. Testen Sie Ihren Anwendungsfall: Die Auswirkung von Aufwandsebenen variiert je nach Aufgabentyp. Bewerten Sie die Leistung bei Ihren spezifischen Anwendungsfällen, bevor Sie bereitstellen.

    4. Überwachen Sie die Qualität: Während die Genauigkeit über Aufwandsebenen hinweg im Allgemeinen erhalten bleibt, variiert die Erklärungsqualität. Stellen Sie sicher, dass die von Ihnen gewählte Ebene die Anforderungen Ihrer Benutzer erfüllt.

    5. Erwägen Sie dynamischen Aufwand: Passen Sie den Aufwand basierend auf Aufgabenkomplexität oder Benutzervorliebe an. Einfache Anfragen können niedrigen Aufwand rechtfertigen, während komplexe Analysen von hohem Aufwand profitieren.

    • Wie Aufwand funktioniert
    • Aufwandsebenen
    • Grundlegende Verwendung
    • Verhalten nach Aufwandsebene
    • Antworten mit niedrigem Aufwand
    • Antworten mit mittlerem Aufwand
    • Antworten mit hohem Aufwand
    • Anwendungsfälle
    • Wann man niedrigen Aufwand verwendet
    • Wann man mittleren Aufwand verwendet
    • Wann man hohen Aufwand verwendet (oder keinen Aufwand-Parameter)
    • Aufwand mit Tool-Nutzung
    • Aufwand mit erweitertem Denken
    • Best Practices

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy