Der Effort-Parameter ermöglicht es Ihnen zu kontrollieren, wie bereitwillig Claude Token beim Antworten auf Anfragen ausgibt. Dies gibt Ihnen die Möglichkeit, zwischen Gründlichkeit der Antwort und Token-Effizienz abzuwägen, alles mit einem einzigen Modell. Der Effort-Parameter ist allgemein auf allen unterstützten Modellen verfügbar und erfordert keinen Beta-Header.
Der Effort-Parameter wird von Claude Opus 4.6 und Claude Opus 4.5 unterstützt.
Bei Claude Opus 4.6 ersetzt Effort budget_tokens als empfohlene Methode zur Kontrolle der Thinking-Tiefe. Kombinieren Sie Effort mit adaptive thinking (thinking: {type: "adaptive"}) für das beste Erlebnis. Während budget_tokens auf Opus 4.6 noch akzeptiert wird, ist es veraltet und wird in einer zukünftigen Modellversion entfernt. Bei high (Standard) und max Effort wird Claude fast immer denken. Bei niedrigeren Effort-Stufen kann es das Denken bei einfacheren Problemen überspringen.
Standardmäßig verwendet Claude hohen Effort – gibt so viele Token aus, wie für hervorragende Ergebnisse erforderlich sind. Sie können die Effort-Stufe auf max erhöhen, um die absolut höchste Leistung zu erzielen, oder sie senken, um sparsamer mit Token-Nutzung umzugehen und Geschwindigkeit und Kosten zu optimieren, während Sie eine gewisse Leistungsreduktion akzeptieren.
Das Setzen von effort auf "high" erzeugt genau das gleiche Verhalten wie das Weglassen des effort-Parameters ganz.
Der Effort-Parameter beeinflusst alle Token in der Antwort, einschließlich:
Dieser Ansatz hat zwei große Vorteile:
| Stufe | Beschreibung | Typischer Anwendungsfall |
|---|---|---|
max | Absolute maximale Leistung ohne Einschränkungen bei der Token-Ausgabe. Nur Opus 4.6 – Anfragen mit max auf anderen Modellen geben einen Fehler zurück. | Aufgaben, die tiefste mögliche Überlegung und gründlichste Analyse erfordern |
high | Hohe Leistung. Entspricht dem Nicht-Setzen des Parameters. | Komplexes Denken, schwierige Codierungsprobleme, agentengestützte Aufgaben |
medium | Ausgewogener Ansatz mit moderaten Token-Einsparungen. | Agentengestützte Aufgaben, die ein Gleichgewicht zwischen Geschwindigkeit, Kosten und Leistung erfordern |
low | Am effizientesten. Erhebliche Token-Einsparungen mit einiger Leistungsreduktion. | Einfachere Aufgaben, die die beste Geschwindigkeit und niedrigste Kosten benötigen, wie z. B. Subagenten |
Effort ist ein Verhaltensignal, kein striktes Token-Budget. Bei niedrigeren Effort-Stufen wird Claude bei ausreichend schwierigen Problemen immer noch denken – es wird nur weniger denken als bei höheren Effort-Stufen für das gleiche Problem.
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-opus-4-6",
max_tokens=4096,
messages=[{
"role": "user",
"content": "Analyze the trade-offs between microservices and monolithic architectures"
}],
output_config={
"effort": "medium"
}
)
print(response.content[0].text)max auf anderen Modellen geben einen Fehler zurück.Bei der Verwendung von Tools beeinflusst der Effort-Parameter sowohl die Erklärungen um Tool-Aufrufe als auch die Tool-Aufrufe selbst. Niedrigere Effort-Stufen neigen dazu zu:
Höhere Effort-Stufen können:
Der Effort-Parameter funktioniert zusammen mit erweitertem Denken. Sein Verhalten hängt vom Modell ab:
thinking: {type: "adaptive"}), wobei Effort die empfohlene Kontrolle für die Thinking-Tiefe ist. Während budget_tokens auf Opus 4.6 noch akzeptiert wird, ist es veraltet und wird in einer zukünftigen Version entfernt. Bei high und max Effort denkt Claude fast immer tief. Bei niedrigeren Stufen kann es das Denken bei einfacheren Problemen überspringen.thinking: {type: "enabled", budget_tokens: N}), wobei Effort zusammen mit dem Thinking-Token-Budget funktioniert. Setzen Sie die Effort-Stufe für Ihre Aufgabe, dann setzen Sie das Thinking-Token-Budget basierend auf der Aufgabenkomplexität.Der Effort-Parameter kann mit oder ohne aktiviertes erweitertes Denken verwendet werden. Wenn er ohne Denken verwendet wird, kontrolliert er immer noch die Gesamttoken-Ausgabe für Textantworten und Tool-Aufrufe.
Was this page helpful?