Loading...
    • Erstellen
    • Admin
    • Modelle & Preise
    • Client-SDKs
    • API-Referenz
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnellstart
    Entwickeln mit Claude
    FunktionsübersichtVerwendung der Messages APIClaude API skillStop-Gründe behandeln
    Modellfähigkeiten
    Erweitertes DenkenAdaptives DenkenAufwandAufgabenbudgets (Beta)Schnellmodus (Beta: Forschungsvorschau)Strukturierte AusgabenZitateStreaming-NachrichtenStapelverarbeitungSuchergebnisseStreaming-AblehnungenMehrsprachige UnterstützungEmbeddings
    Tools
    ÜbersichtWie Tool-Nutzung funktioniertTutorial: Einen Tool-nutzenden Agenten erstellenTools definierenTool-Aufrufe verarbeitenParallele Tool-NutzungTool Runner (SDK)Strikte Tool-NutzungTool-Nutzung mit Prompt-CachingServer-ToolsFehlerbehebungWeb-SuchtoolWeb-AbruftoolCode-AusführungstoolAdvisor-ToolSpeicher-ToolBash-ToolComputer-NutzungstoolTexteditor-Tool
    Tool-Infrastruktur
    Tool-ReferenzTool-Kontext verwaltenTool-KombinationenTool-SucheProgrammatische Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt-CachingToken-Zählung
    Mit Dateien arbeiten
    Files APIPDF-UnterstützungBilder und Vision
    Skills
    ÜbersichtSchnellstartBest PracticesSkills für UnternehmenSkills in der API
    MCP
    Remote-MCP-ServerMCP-Connector
    Prompt-Engineering
    ÜbersichtBest Practices für PromptsConsole-Prompting-Tools
    Testen und evaluieren
    Erfolg definieren und Evaluierungen erstellenDas Evaluierungstool in der Console verwendenLatenz reduzieren
    Leitplanken stärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abmildernPrompt-Lecks reduzieren
    Ressourcen
    Glossar
    Versionshinweise
    Claude Platform
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Tool-Infrastruktur

    Werkzeugkontext verwalten

    Wählen Sie zwischen Werkzeugsuche, programmatischem Werkzeugaufrufen, Prompt-Caching und Kontextbearbeitung, um Kontextüberlastung zu verwalten.

    Was this page helpful?

    • Die vier Ansätze
    • Werkzeugsuche
    • Programmatisches Werkzeugaufrufen
    • Prompt-Caching
    • Kontextbearbeitung
    • Ansätze kombinieren
    • Nächste Schritte

    Werkzeugdefinitionen und angesammelte tool_result-Blöcke verbrauchen Ihr Kontextfenster. Langfristig laufende Agenten mit vielen Werkzeugen oder vielen Durchläufen können den verfügbaren Kontext erschöpfen, bevor die Aufgabe abgeschlossen ist. Vier Ansätze adressieren dies an verschiedenen Punkten in der Pipeline.

    Die vier Ansätze

    Jeder Ansatz zielt auf eine andere Quelle von Kontextdruck ab. Wählen Sie denjenigen, der passt, wohin Ihre Token gehen.

    AnsatzWas es reduziertWann es passtWeitere Informationen
    WerkzeugsucheWerkzeugdefinitionen, die vorab geladen werdenGroße Werkzeugsätze (20+ Werkzeuge), bei denen die meisten Werkzeuge nicht bei jedem Durchlauf benötigt werdenWerkzeugsuche-Tool
    Programmatisches Werkzeugaufrufentool_result-RoundtripsKetten von Werkzeugaufrufen, die als einzelnes Skript ausgeführt werden könnenProgrammatisches Werkzeugaufrufen
    Prompt-CachingToken-Kosten wiederholter WerkzeugdefinitionenStabile Werkzeugsätze über viele Anfragen hinwegWerkzeugnutzung mit Prompt-Caching
    KontextbearbeitungAlte tool_result-Blöcke in der HistorieLange Gespräche, bei denen frühe Ergebnisse nicht mehr relevant sindKontextbearbeitung

    Werkzeugsuche

    Die Werkzeugsuche hält Werkzeugdefinitionen aus dem Kontextfenster heraus, bis Claude danach fragt. Anstatt 50 Werkzeugschemas vorab zu senden, senden Sie ein einzelnes tool_search-Werkzeug und lassen Claude den Rest bei Bedarf entdecken. Dies tauscht eine kleine Menge Latenz (einen zusätzlichen Durchlauf zum Nachschlagen eines Werkzeugs) gegen eine große Reduzierung der Baseline-Kontextnutzung.

    Programmatisches Werkzeugaufrufen

    Das programmatische Werkzeugaufrufen reduziert eine Sequenz von Werkzeugaufrufen auf einen einzelnen Codeblock, den Claude schreibt und Anthropics Code-Execution-Sandbox ausführt. Anstatt fünf Roundtrips von tool_use und tool_result gibt Claude ein Skript aus, das alle fünf Funktionen innerhalb der Sandbox aufruft. Die Zwischenergebnisse gelangen nie in die Gesprächshistorie.

    Prompt-Caching

    Prompt-Caching reduziert nicht die Anzahl der Token im Kontext, sondern reduziert, was Sie dafür bei nachfolgenden Anfragen zahlen. Wenn Ihre Werkzeugdefinitionen stabil sind, cachen Sie sie einmal und verwenden Sie das gecachte Präfix über Tausende von Anfragen hinweg erneut. Dies ist die richtige Wahl, wenn der Werkzeugsatz groß, aber fest ist.

    Kontextbearbeitung

    Die Kontextbearbeitung entfernt alte tool_result-Blöcke aus der Gesprächshistorie, sobald sie ihren Zweck erfüllt haben. Eine lange Agent-Schleife könnte Hunderte von Zwischenergebnissen erzeugen, die damals nützlich waren, aber jetzt totes Gewicht sind. Mit der Kontextbearbeitung können Sie diese trimmen, ohne das Gespräch neu zu starten.

    Ansätze kombinieren

    Diese Ansätze lassen sich kombinieren. Ein langfristig laufender Agent könnte Werkzeugsuche verwenden, um den Werkzeugsatz schlank zu halten, Prompt-Caching, um die Kosten der verbleibenden Definitionen zu amortisieren, und Kontextbearbeitung, um veraltete Ergebnisse zu trimmen, während das Gespräch wächst. Jeder löst einen anderen Teil des Problems, daher gibt es keinen Konflikt bei der gemeinsamen Verwendung.

    Ein vernünftiger Ausgangspunkt für einen Agent mit hohem Volumen:

    1. Aktivieren Sie Prompt-Caching auf Ihren Werkzeugdefinitionen von Anfang an. Cache-Schreibvorgänge tragen einen Aufschlag von 25% über die Basis-Eingabepreise, der sich bei der zweiten Anfrage, die den Cache trifft, amortisiert.
    2. Fügen Sie Werkzeugsuche hinzu, sobald Ihr Werkzeugsatz auf etwa 20 Werkzeuge wächst oder Ihre Baseline-Kontextnutzung merklich wird.
    3. Fügen Sie Kontextbearbeitung hinzu, sobald einzelne Gespräche lange genug laufen, dass frühe Ergebnisse irrelevant werden.
    4. Erwägen Sie programmatisches Werkzeugaufrufen, wenn Sie wiederholte Ketten kleiner Werkzeugaufrufe bemerken, die als einzelner Batch ausgeführt werden könnten.

    Nächste Schritte

    Werkzeugsuche-Tool

    Laden Sie Werkzeugdefinitionen bei Bedarf anstatt vorab.

    Programmatisches Werkzeugaufrufen

    Reduzieren Sie Werkzeugaufrufe-Ketten auf ein einzelnes ausführbares Skript.

    Werkzeugnutzung mit Prompt-Caching

    Cachen Sie Werkzeugdefinitionen über Anfragen hinweg, um Token-Kosten zu senken.

    Kontextbearbeitung

    Trimmen Sie veraltete Werkzeugergebnisse aus langfristig laufenden Gesprächen.