Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Prompt Engineering

    Komplexe Prompts verketten für bessere Leistung

    Erfahren Sie, wie Sie komplexe Aufgaben durch Prompt-Verkettung in kleinere, verwaltbare Schritte aufteilen, um die Genauigkeit und Klarheit zu verbessern.

    While these tips apply broadly to all Claude models, you can find prompting tips specific to extended thinking models here.

    Bei der Arbeit mit komplexen Aufgaben kann Claude manchmal scheitern, wenn Sie versuchen, alles in einem einzigen Prompt zu bewältigen. Chain of Thought (CoT) Prompting ist großartig, aber was ist, wenn Ihre Aufgabe mehrere unterschiedliche Schritte hat, die jeweils tiefgreifendes Denken erfordern?

    Hier kommt Prompt-Verkettung ins Spiel: das Aufteilen komplexer Aufgaben in kleinere, verwaltbare Teilaufgaben.

    Warum Prompts verketten?

    1. Genauigkeit: Jede Teilaufgabe erhält Claudes volle Aufmerksamkeit, was Fehler reduziert.
    2. Klarheit: Einfachere Teilaufgaben bedeuten klarere Anweisungen und Ausgaben.
    3. Rückverfolgbarkeit: Probleme in Ihrer Prompt-Kette lassen sich leicht identifizieren und beheben.

    Wann sollten Sie Prompts verketten?

    Verwenden Sie Prompt-Verkettung für mehrstufige Aufgaben wie Forschungssynthese, Dokumentenanalyse oder iterative Inhaltserstellung. Wenn eine Aufgabe mehrere Transformationen, Zitate oder Anweisungen beinhaltet, verhindert die Verkettung, dass Claude Schritte übersieht oder falsch handhabt.

    Denken Sie daran: Jedes Glied in der Kette erhält Claudes volle Aufmerksamkeit!

    Debugging-Tipp: Wenn Claude einen Schritt übersieht oder schlecht abschneidet, isolieren Sie diesen Schritt in seinem eigenen Prompt. Dies ermöglicht es Ihnen, problematische Schritte zu optimieren, ohne die gesamte Aufgabe zu wiederholen.

    Wie man Prompts verkettet

    1. Teilaufgaben identifizieren: Teilen Sie Ihre Aufgabe in unterschiedliche, sequenzielle Schritte auf.
    2. Mit XML für klare Übergaben strukturieren: Verwenden Sie XML-Tags, um Ausgaben zwischen Prompts zu übergeben.
    3. Ein Ziel pro Aufgabe haben: Jede Teilaufgabe sollte ein einzelnes, klares Ziel haben.
    4. Iterieren: Verfeinern Sie Teilaufgaben basierend auf Claudes Leistung.

    Beispiele für verkettete Workflows:

    • Mehrstufige Analyse: Siehe die rechtlichen und geschäftlichen Beispiele unten.
    • Content-Creation-Pipelines: Recherche → Gliederung → Entwurf → Bearbeitung → Formatierung.
    • Datenverarbeitung: Extrahieren → Transformieren → Analysieren → Visualisieren.
    • Entscheidungsfindung: Informationen sammeln → Optionen auflisten → Jede analysieren → Empfehlen.
    • Überprüfungsschleifen: Inhalt generieren → Überprüfen → Verfeinern → Erneut überprüfen.
    Optimierungstipp: Für Aufgaben mit unabhängigen Teilaufgaben (wie das Analysieren mehrerer Dokumente) erstellen Sie separate Prompts und führen Sie diese parallel aus, um schneller zu sein.

    Erweitert: Selbstkorrektur-Ketten

    Sie können Prompts verketten, damit Claude seine eigene Arbeit überprüft! Dies erfasst Fehler und verfeinert Ausgaben, besonders bei hochriskanten Aufgaben.


    Beispiele


    Prompt-Bibliothek

    Lassen Sie sich von einer kuratierten Auswahl von Prompts für verschiedene Aufgaben und Anwendungsfälle inspirieren.

    GitHub-Prompting-Tutorial

    Ein beispielreiches Tutorial, das die in unserer Dokumentation gefundenen Prompt-Engineering-Konzepte abdeckt.

    Google Sheets Prompting-Tutorial

    Eine leichtere Version unseres Prompt-Engineering-Tutorials über ein interaktives Tabellenkalkulationsblatt.

    Was this page helpful?

    • Warum Prompts verketten?
    • Wann sollten Sie Prompts verketten?
    • Wie man Prompts verkettet
    • Beispiele für verkettete Workflows:
    • Erweitert: Selbstkorrektur-Ketten
    • Beispiele