Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.5Migration zu Claude 4.5ModellabschreibungenPreise
    Mit Claude erstellen
    FunktionsübersichtMessages API verwendenKontextfensterBest Practices für Prompts
    Fähigkeiten
    Prompt-CachingKontext-BearbeitungErweitertes DenkenAufwandStreaming MessagesBatch-VerarbeitungZitateMehrsprachige UnterstützungToken-ZählungEmbeddingsVisionPDF-UnterstützungFiles APISuchergebnisseStrukturierte Ausgaben
    Tools
    ÜbersichtTool-Nutzung implementierenFeingranulares Tool-StreamingBash-ToolCode-Ausführungs-ToolProgrammatischer Tool-AufrufComputer-Use-ToolText-Editor-ToolWeb-Fetch-ToolWeb-Such-ToolMemory-ToolTool-Such-Tool
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Vorschau)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot-Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System-Prompts)Claudes Antwort vorausfüllenKomplexe Prompts verkettenTipps für langen KontextTipps für erweitertes Denken
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungs-Tool verwendenLatenz reduzieren
    Schutzvorrichtungen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtNutzungs- und Kosten-APIClaude Code Analytics API
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Prompt Engineering

    Lassen Sie Claude denken (Chain-of-Thought-Prompting) um die Leistung zu verbessern

    Erfahren Sie, wie Sie Claude durch Chain-of-Thought-Prompting dazu ermutigen, Probleme schrittweise zu durchdenken und damit die Genauigkeit und Qualität der Ausgaben zu verbessern.

    While these tips apply broadly to all Claude models, you can find prompting tips specific to extended thinking models here.

    Wenn Sie mit komplexen Aufgaben wie Forschung, Analyse oder Problemlösung konfrontiert sind, kann Claude durch Raum zum Denken dramatisch bessere Ergebnisse liefern. Diese Technik, bekannt als Chain-of-Thought (CoT) Prompting, ermutigt Claude, Probleme schrittweise zu zerlegen, was zu genaueren und differenzierteren Ausgaben führt.

    Vor der Implementierung von CoT

    Warum Claude denken lassen?

    • Genauigkeit: Das schrittweise Durcharbeiten von Problemen reduziert Fehler, besonders bei Mathematik, Logik, Analyse oder allgemein komplexen Aufgaben.
    • Kohärenz: Strukturiertes Denken führt zu kohärenteren, besser organisierten Antworten.
    • Debugging: Das Sehen von Claudes Gedankenprozess hilft Ihnen, Stellen zu identifizieren, an denen Prompts möglicherweise unklar sind.

    Warum Claude nicht denken lassen?

    • Erhöhte Ausgabelänge kann sich auf die Latenz auswirken.
    • Nicht alle Aufgaben erfordern tiefes Denken. Verwenden Sie CoT mit Bedacht, um das richtige Gleichgewicht zwischen Leistung und Latenz zu gewährleisten.
    Verwenden Sie CoT für Aufgaben, die ein Mensch durchdenken müsste, wie komplexe Mathematik, mehrstufige Analysen, das Schreiben komplexer Dokumente oder Entscheidungen mit vielen Faktoren.

    Wie man zum Denken auffordert

    Die unten aufgeführten Chain-of-Thought-Techniken sind von der am wenigsten bis zur am meisten komplexen geordnet. Weniger komplexe Methoden benötigen weniger Platz im Kontextfenster, sind aber auch allgemein weniger leistungsstark.

    CoT-Tipp: Lassen Sie Claude sein Denken immer ausgeben. Ohne die Ausgabe des Gedankenprozesses findet kein Denken statt!
    • Grundlegender Prompt: Fügen Sie "Denken Sie schrittweise" in Ihren Prompt ein.
      • Mangelt es an Anleitung, wie man denkt (was besonders nicht ideal ist, wenn eine Aufgabe sehr spezifisch für Ihre App, Ihren Anwendungsfall oder Ihre Organisation ist)

    • Gesteuerter Prompt: Skizzieren Sie spezifische Schritte, die Claude in seinem Denkprozess befolgen soll.
      • Mangelt es an Strukturierung, um es einfach zu machen, die Antwort vom Denken zu trennen und zu extrahieren.

    • Strukturierter Prompt: Verwenden Sie XML-Tags wie <thinking> und <answer>, um das Denken von der endgültigen Antwort zu trennen.

    Beispiele


    Prompt-Bibliothek

    Lassen Sie sich von einer kuratierten Auswahl von Prompts für verschiedene Aufgaben und Anwendungsfälle inspirieren.

    GitHub-Prompting-Tutorial

    Ein beispielreiches Tutorial, das die Prompt-Engineering-Konzepte aus unserer Dokumentation abdeckt.

    Google Sheets Prompting-Tutorial

    Eine leichtere Version unseres Prompt-Engineering-Tutorials über ein interaktives Tabellenkalkulationsblatt.

    • Vor der Implementierung von CoT
    • Warum Claude denken lassen?
    • Warum Claude nicht denken lassen?
    • Wie man zum Denken auffordert
    • Beispiele