Claude 4.5 führt drei Modelle ein, die für verschiedene Anwendungsfälle entwickelt wurden:
Claude Opus 4.5 stellt unser intelligentestes Modell dar und kombiniert maximale Leistung mit praktischer Effizienz. Es bietet bedeutende Verbesserungen bei Reasoning, Codierung und komplexen Problemlösungsaufgaben, während es die hochwertigen Ausgaben beibehält, die von der Opus-Familie erwartet werden.
Claude Opus 4.5 ist das einzige Modell, das den Effort-Parameter unterstützt, mit dem Sie steuern können, wie viele Tokens Claude bei der Antwort verwendet. Dies gibt Ihnen die Möglichkeit, zwischen Antwortgründlichkeit und Token-Effizienz mit einem einzigen Modell zu wählen.
Der Effort-Parameter beeinflusst alle Tokens in der Antwort, einschließlich Textantworten, Tool-Aufrufe und erweitertes Denken. Sie können zwischen folgenden Optionen wählen:
Claude Opus 4.5 führt verbesserte Computernutzungsfähigkeiten mit einer neuen Zoom-Aktion ein, die eine detaillierte Überprüfung spezifischer Bildschirmbereiche in voller Auflösung ermöglicht. Dies ermöglicht Claude, feinkörnige UI-Elemente, kleine Texte und detaillierte visuelle Informationen zu untersuchen, die in Standard-Screenshots möglicherweise unklar sind.
Die Zoom-Funktion ist besonders wertvoll für:
Claude Opus 4.5 bietet Flaggschiff-Intelligenz zu einem zugänglicheren Preis als frühere Opus-Modelle, wodurch fortschrittliche KI-Funktionen für eine breitere Palette von Anwendungen und Anwendungsfällen verfügbar werden.
Claude Opus 4.5 erhält automatisch alle vorherigen Thinking-Blöcke während Gesprächen, wodurch die Reasoning-Kontinuität über erweiterte Multi-Turn-Interaktionen und Tool-Use-Sitzungen hinweg gewährleistet wird. Dies stellt sicher, dass Claude seine vollständige Reasoning-Historie effektiv nutzen kann, wenn es an komplexen, langfristigen Aufgaben arbeitet.
Claude Sonnet 4.5 ist unser bestes Codierungsmodell bis dato mit erheblichen Verbesserungen über den gesamten Entwicklungslebenszyklus:
Claude Sonnet 4.5 funktioniert bei Codierungsaufgaben erheblich besser, wenn erweitertes Denken aktiviert ist. Erweitertes Denken ist standardmäßig deaktiviert, aber wir empfehlen, es für komplexe Codierungsarbeiten zu aktivieren. Beachten Sie, dass erweitertes Denken die Effizienz des Prompt-Cachings beeinflusst. Siehe den Migrationsleitfaden für Konfigurationsdetails.
Claude Sonnet 4.5 führt bedeutende Fortschritte bei Agent-Fähigkeiten ein:
Claude Sonnet 4.5 hat einen verfeinerten Kommunikationsansatz, der prägnant, direkt und natürlich ist. Es bietet faktengestützte Fortschrittsaktualisierungen und kann ausführliche Zusammenfassungen nach Tool-Aufrufen überspringen, um Workflow-Momentum zu bewahren (dies kann jedoch durch Prompting angepasst werden).
Für detaillierte Anleitung zur Arbeit mit diesem Kommunikationsstil siehe Claude 4 Best Practices.
Claude Sonnet 4.5 zeichnet sich bei kreativen Inhaltsaufgaben aus:
Claude Haiku 4.5 stellt einen transformativen Sprung für die Haiku-Modellfamilie dar und bringt Frontier-Fähigkeiten zu unserer schnellsten Modellklasse:
Claude Haiku 4.5 bietet nahezu Frontier-Leistung, die Sonnet 4 bei deutlich niedrigeren Kosten und schnellerer Geschwindigkeit entspricht:
Claude Haiku 4.5 ist das erste Haiku-Modell, das erweitertes Denken unterstützt und fortgeschrittene Reasoning-Fähigkeiten zur Haiku-Familie bringt:
Erweitertes Denken muss explizit aktiviert werden, indem ein thinking-Parameter zu Ihren API-Anfragen hinzugefügt wird. Siehe die Dokumentation zu erweitertem Denken für Implementierungsdetails.
Claude Haiku 4.5 funktioniert bei Codierungs- und Reasoning-Aufgaben erheblich besser, wenn erweitertes Denken aktiviert ist. Erweitertes Denken ist standardmäßig deaktiviert, aber wir empfehlen, es für komplexe Problemlösung, Codierungsarbeiten und Multi-Step-Reasoning zu aktivieren. Beachten Sie, dass erweitertes Denken die Effizienz des Prompt-Cachings beeinflusst. Siehe den Migrationsleitfaden für Konfigurationsdetails.
Claude Haiku 4.5 verfügt über Kontextbewusstsein, das es dem Modell ermöglicht, sein verbleibendes Kontextfenster während eines Gesprächs zu verfolgen:
Dies ist das erste Haiku-Modell mit nativen Kontextbewusstsein-Fähigkeiten. Für Prompting-Anleitung siehe Claude 4 Best Practices.
Claude Haiku 4.5 bietet robuste Codierungsfähigkeiten, die von modernen Claude-Modellen erwartet werden:
Haiku 4.5 ist für Anwendungsfälle konzipiert, die sowohl Intelligenz als auch Effizienz erfordern:
Programmatische Tool-Aufrufe ermöglichen es Claude, Code zu schreiben, der Ihre Tools programmatisch innerhalb eines Code-Ausführungs-Containers aufruft, anstatt Round-Trips durch das Modell für jeden Tool-Aufruf zu erfordern. Dies reduziert die Latenz für Multi-Tool-Workflows erheblich und verringert den Token-Verbrauch, indem Claude Daten filtern oder verarbeiten kann, bevor sie das Kontextfenster des Modells erreichen.
tools=[
{
"type": "code_execution_20250825",
"name": "code_execution"
},
{
"name": "query_database",
"description": "Execute a SQL query against the sales database. Returns a list of rows as JSON objects.",
"input_schema": {...},
"allowed_callers": ["code_execution_20250825"] # Enable programmatic calling
}
]Wichtigste Vorteile:
advanced-tool-use-2025-11-20Das Tool-Such-Tool ermöglicht es Claude, mit Hunderten oder Tausenden von Tools zu arbeiten, indem es sie dynamisch entdeckt und bei Bedarf lädt. Anstatt alle Tool-Definitionen vorab in das Kontextfenster zu laden, sucht Claude Ihren Tool-Katalog und lädt nur die Tools, die es benötigt.
Zwei Such-Varianten sind verfügbar:
tool_search_tool_regex_20251119): Claude konstruiert Regex-Muster, um Tool-Namen, Beschreibungen und Argumente zu durchsuchentool_search_tool_bm25_20251119): Claude verwendet natürlichsprachige Abfragen, um nach Tools zu suchentools=[
{
"type": "tool_search_tool_regex_20251119",
"name": "tool_search_tool_regex"
},
{
"name": "get_weather",
"description": "Get the weather at a specific location",
"input_schema": {...},
"defer_loading": True # Load on-demand via search
}
]Dieser Ansatz löst zwei kritische Herausforderungen:
advanced-tool-use-2025-11-20Der Effort-Parameter ermöglicht es Ihnen, zu steuern, wie viele Tokens Claude bei der Antwort verwendet, und wählen Sie zwischen Antwortgründlichkeit und Token-Effizienz:
response = client.beta.messages.create(
model="claude-opus-4-5-20251101",
betas=["effort-2025-11-24"],
max_tokens=4096,
messages=[{"role": "user", "content": "..."}],
output_config={
"effort": "medium" # "low", "medium", or "high"
}
)Der Effort-Parameter beeinflusst alle Tokens in der Antwort, einschließlich Textantworten, Tool-Aufrufe und erweitertes Denken. Niedrigere Effort-Level erzeugen prägnantere Antworten mit minimalen Erklärungen, während höherer Effort detailliertes Reasoning und umfassende Antworten bietet.
effort-2025-11-24Tool-Use-Beispiele ermöglichen es Ihnen, konkrete Beispiele gültiger Tool-Eingaben bereitzustellen, um Claude zu helfen, Ihre Tools effektiver zu nutzen. Dies ist besonders nützlich für komplexe Tools mit verschachtelten Objekten, optionalen Parametern oder formatempfindlichen Eingaben.
tools=[
{
"name": "get_weather",
"description": "Get the current weather in a given location",
"input_schema": {...},
"input_examples": [
{
"location": "San Francisco, CA",
"unit": "fahrenheit"
},
{
"location": "Tokyo, Japan",
"unit": "celsius"
},
{
"location": "New York, NY" # Demonstrates optional 'unit' parameter
}
]
}
]Beispiele sind im Prompt neben Ihrem Tool-Schema enthalten und zeigen Claude konkrete Muster für gut geformte Tool-Aufrufe. Jedes Beispiel muss gemäß dem input_schema des Tools gültig sein.
advanced-tool-use-2025-11-20.Das neue Memory-Tool ermöglicht es Claude, Informationen außerhalb des Kontextfensters zu speichern und abzurufen:
tools=[
{
"type": "memory_20250818",
"name": "memory"
}
]Dies ermöglicht:
context-management-2025-06-27Verwenden Sie Kontext-Bearbeitung für intelligentes Kontextmanagement durch automatisches Löschen von Tool-Aufrufen:
response = client.beta.messages.create(
betas=["context-management-2025-06-27"],
model="claude-sonnet-4-5", # or claude-haiku-4-5
max_tokens=4096,
messages=[{"role": "user", "content": "..."}],
context_management={
"edits": [
{
"type": "clear_tool_uses_20250919",
"trigger": {"type": "input_tokens", "value": 500},
"keep": {"type": "tool_uses", "value": 2},
"clear_at_least": {"type": "input_tokens", "value": 100}
}
]
},
tools=[...]
)Diese Funktion entfernt automatisch ältere Tool-Aufrufe und Ergebnisse, wenn sich die Token-Limits nähern, und hilft, den Kontext in langfristigen Agent-Sitzungen zu verwalten.
context-management-2025-06-27Claude 4.5-Modelle führen einen neuen model_context_window_exceeded-Stop-Grund ein, der explizit anzeigt, wenn die Generierung aufgrund des Erreichens des Kontextfenster-Limits angehalten wurde, anstatt des angeforderten max_tokens-Limits. Dies macht es einfacher, Kontextfenster-Limits in Ihrer Anwendungslogik zu handhaben.
{
"stop_reason": "model_context_window_exceeded",
"usage": {
"input_tokens": 150000,
"output_tokens": 49950
}
}Claude 4.5-Modelle enthalten eine Fehlerbehebung, die beabsichtigte Formatierung in Tool-Aufruf-String-Parametern bewahrt. Zuvor wurden nachfolgende Zeilenumbrüche in String-Parametern manchmal fälschlicherweise entfernt. Diese Behebung stellt sicher, dass Tools, die präzise Formatierung erfordern (wie Text-Editoren), Parameter genau wie beabsichtigt erhalten.
Dies ist eine Verbesserung hinter den Kulissen ohne erforderliche API-Änderungen. Tools mit String-Parametern können jedoch jetzt Werte mit nachfolgenden Zeilenumbrüchen erhalten, die zuvor entfernt wurden.
Beispiel:
// Before: Final newline accidentally stripped
{
"type": "tool_use",
"id": "toolu_01A09q90qw90lq917835lq9",
"name": "edit_todo",
"input": {
"file": "todo.txt",
"contents": "1. Chop onions.\n2. ???\n3. Profit"
}
}
// After: Trailing newline preserved as intended
{
"type": "tool_use",
"id": "toolu_01A09q90qw90lq917835lq9",
"name": "edit_todo",
"input": {
"file": "todo.txt",
"contents": "1. Chop onions.\n2. ???\n3. Profit\n"
}
}Claude 4.5-Modelle enthalten automatische Optimierungen zur Verbesserung der Modellleistung. Diese Optimierungen können kleine Mengen von Tokens zu Anfragen hinzufügen, aber Sie werden nicht für diese vom System hinzugefügten Tokens berechnet.
Die folgenden Funktionen wurden in Claude 4 eingeführt und sind über Claude 4-Modelle verfügbar, einschließlich Claude Sonnet 4.5 und Claude Haiku 4.5.
Claude 4-Modelle führen einen neuen refusal-Stop-Grund für Inhalte ein, die das Modell aus Sicherheitsgründen nicht generiert:
{
"id": "msg_014XEDjypDjFzgKVWdFUXxZP",
"type": "message",
"role": "assistant",
"model": "claude-sonnet-4-5",
"content": [{"type": "text", "text": "I would be happy to assist you. You can "}],
"stop_reason": "refusal",
"stop_sequence": null,
"usage": {
"input_tokens": 564,
"cache_creation_input_tokens": 0,
"cache_read_input_tokens": 0,
"output_tokens": 22
}
}Bei Verwendung von Claude 4-Modellen sollten Sie Ihre Anwendung aktualisieren, um Ablehnungs-Stop-Gründe zu handhaben.
Mit aktiviertem erweitertem Denken gibt die Messages API für Claude 4-Modelle eine Zusammenfassung von Claudes vollständigem Thinking-Prozess zurück. Zusammengefasstes Denken bietet die vollständigen Intelligenzvorteile des erweiterten Denkens, während es Missbrauch verhindert.
Während die API über Claude 3.7 und 4-Modelle konsistent ist, können Streaming-Antworten für erweitertes Denken in einem "chunky"-Liefermuster mit möglichen Verzögerungen zwischen Streaming-Ereignissen zurückkehren.
Die Zusammenfassung wird von einem anderen Modell verarbeitet als dem, das Sie in Ihren Anfragen anvisieren. Das Thinking-Modell sieht die zusammengefasste Ausgabe nicht.
Weitere Informationen finden Sie in der Dokumentation zu erweitertem Denken.
Claude 4-Modelle unterstützen die Verschachtelung von Tool-Use mit erweitertem Denken, was natürlichere Gespräche ermöglicht, bei denen Tool-Uses und Antworten mit regulären Nachrichten gemischt werden können.
Verschachteltes Denken ist in Beta. Um verschachteltes Denken zu aktivieren, fügen Sie den Beta-Header interleaved-thinking-2025-05-14 zu Ihrer API-Anfrage hinzu.
Weitere Informationen finden Sie in der Dokumentation zu erweitertem Denken.
Claude 4-Modelle haben bemerkenswerte Verhaltensänderungen, die beeinflussen können, wie Sie Prompts strukturieren:
Claude 4-Modelle sind für präzise Befolgung von Anweisungen trainiert und erfordern explizitere Richtung:
Für umfassende Anleitung zur Arbeit mit diesen Modellen siehe Claude 4 Prompt-Engineering Best Practices.
Das Text-Editor-Tool wurde für Claude 4-Modelle mit den folgenden Änderungen aktualisiert:
text_editor_20250728str_replace_based_edit_toolundo_edit-Befehl wird nicht mehr unterstütztDas str_replace_editor-Text-Editor-Tool bleibt für Claude Sonnet 3.7 gleich.
Wenn Sie von Claude Sonnet 3.7 migrieren und das Text-Editor-Tool verwenden:
# Claude Sonnet 3.7
tools=[
{
"type": "text_editor_20250124",
"name": "str_replace_editor"
}
]
# Claude 4 models
tools=[
{
"type": "text_editor_20250728",
"name": "str_replace_based_edit_tool"
}
]Weitere Informationen finden Sie in der Text-Editor-Tool-Dokumentation.
Wenn Sie das Code-Ausführungs-Tool verwenden, stellen Sie sicher, dass Sie die neueste Version code_execution_20250825 verwenden, die Bash-Befehle und Dateiverwaltungsfähigkeiten hinzufügt.
Die Legacy-Version code_execution_20250522 (nur Python) ist noch verfügbar, wird aber nicht für neue Implementierungen empfohlen.
Für Migrationsinstruktionen siehe die Code-Ausführungs-Tool-Dokumentation.
Claude 4.5-Modelle behalten wettbewerbsfähige Preise:
| Modell | Eingabe | Ausgabe |
|---|---|---|
| Claude Opus 4.5 | $5 pro Million Tokens | $25 pro Million Tokens |
| Claude Sonnet 4.5 | $3 pro Million Tokens | $15 pro Million Tokens |
| Claude Haiku 4.5 | $1 pro Million Tokens | $5 pro Million Tokens |
Weitere Details finden Sie in der Preisgestaltungs-Dokumentation.
Ab Claude 4.5-Modellen (Opus 4.5, Sonnet 4.5 und Haiku 4.5) bieten AWS Bedrock und Google Vertex AI zwei Endpoint-Typen:
Diese regionale Preisgestaltung gilt für alle Claude 4.5-Modelle: Opus 4.5, Sonnet 4.5 und Haiku 4.5.
Die Claude API (1P) ist standardmäßig global und von dieser Änderung nicht betroffen. Die Claude API ist nur global (entspricht dem globalen Endpoint-Angebot und der Preisgestaltung von anderen Anbietern).
Für Implementierungsdetails und Migrationsleitfaden:
Claude 4.5-Modelle sind verfügbar auf:
| Modell | Claude API | Amazon Bedrock | Google Cloud Vertex AI |
|---|---|---|---|
| Claude Opus 4.5 | claude-opus-4-5-20251101 | anthropic.claude-opus-4-5-20251101-v1:0 | claude-opus-4-5@20251101 |
| Claude Sonnet 4.5 | claude-sonnet-4-5-20250929 | anthropic.claude-sonnet-4-5-20250929-v1:0 | claude-sonnet-4-5@20250929 |
| Claude Haiku 4.5 | claude-haiku-4-5-20251001 | anthropic.claude-haiku-4-5-20251001-v1:0 | claude-haiku-4-5@20251001 |
Auch verfügbar über Claude.ai und Claude Code-Plattformen.
Breaking Changes und Migrationsanforderungen variieren je nachdem, von welchem Modell Sie upgraden. Für detaillierte Migrationsinstruktionen, einschließlich Schritt-für-Schritt-Anleitungen, Breaking Changes und Migrations-Checklisten, siehe Migration zu Claude 4.5.
Der Migrationsleitfaden behandelt die folgenden Szenarien:
Upgrade von früheren Modellen