Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Prompt Engineering

    Lassen Sie Claude denken (Chain-of-Thought-Prompting) um die Leistung zu verbessern

    Erfahren Sie, wie Sie Claude durch Chain-of-Thought-Prompting dazu ermutigen, Probleme schrittweise zu durchdenken und damit die Genauigkeit und Qualität der Ausgaben zu verbessern.

    While these tips apply broadly to all Claude models, you can find prompting tips specific to extended thinking models here.

    Wenn Sie mit komplexen Aufgaben wie Forschung, Analyse oder Problemlösung konfrontiert sind, kann Claude durch Raum zum Denken dramatisch bessere Ergebnisse liefern. Diese Technik, bekannt als Chain-of-Thought (CoT) Prompting, ermutigt Claude, Probleme schrittweise zu zerlegen, was zu genaueren und differenzierteren Ausgaben führt.

    Vor der Implementierung von CoT

    Warum Claude denken lassen?

    • Genauigkeit: Das schrittweise Durcharbeiten von Problemen reduziert Fehler, besonders bei Mathematik, Logik, Analyse oder allgemein komplexen Aufgaben.
    • Kohärenz: Strukturiertes Denken führt zu kohärenteren, besser organisierten Antworten.
    • Debugging: Das Sehen von Claudes Gedankenprozess hilft Ihnen, Stellen zu identifizieren, an denen Prompts möglicherweise unklar sind.

    Warum Claude nicht denken lassen?

    • Erhöhte Ausgabelänge kann sich auf die Latenz auswirken.
    • Nicht alle Aufgaben erfordern tiefes Denken. Verwenden Sie CoT mit Bedacht, um das richtige Gleichgewicht zwischen Leistung und Latenz zu gewährleisten.
    Verwenden Sie CoT für Aufgaben, die ein Mensch durchdenken müsste, wie komplexe Mathematik, mehrstufige Analysen, das Schreiben komplexer Dokumente oder Entscheidungen mit vielen Faktoren.

    Wie man zum Denken auffordert

    Die unten aufgeführten Chain-of-Thought-Techniken sind von der am wenigsten bis zur am meisten komplexen geordnet. Weniger komplexe Methoden benötigen weniger Platz im Kontextfenster, sind aber auch allgemein weniger leistungsstark.

    CoT-Tipp: Lassen Sie Claude sein Denken immer ausgeben. Ohne die Ausgabe des Gedankenprozesses findet kein Denken statt!
    • Grundlegender Prompt: Fügen Sie "Denken Sie schrittweise" in Ihren Prompt ein.
      • Mangelt es an Anleitung, wie man denkt (was besonders nicht ideal ist, wenn eine Aufgabe sehr spezifisch für Ihre App, Ihren Anwendungsfall oder Ihre Organisation ist)

    • Gesteuerter Prompt: Skizzieren Sie spezifische Schritte, die Claude in seinem Denkprozess befolgen soll.
      • Mangelt es an Strukturierung, um es einfach zu machen, die Antwort vom Denken zu trennen und zu extrahieren.

    • Strukturierter Prompt: Verwenden Sie XML-Tags wie <thinking> und <answer>, um das Denken von der endgültigen Antwort zu trennen.

    Beispiele


    Prompt-Bibliothek

    Lassen Sie sich von einer kuratierten Auswahl von Prompts für verschiedene Aufgaben und Anwendungsfälle inspirieren.

    GitHub-Prompting-Tutorial

    Ein beispielreiches Tutorial, das die Prompt-Engineering-Konzepte aus unserer Dokumentation abdeckt.

    Google Sheets Prompting-Tutorial

    Eine leichtere Version unseres Prompt-Engineering-Tutorials über ein interaktives Tabellenkalkulationsblatt.

    Was this page helpful?

    • Vor der Implementierung von CoT
    • Warum Claude denken lassen?
    • Warum Claude nicht denken lassen?
    • Wie man zum Denken auffordert
    • Beispiele