Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.6MigrationsleitfadenModellabschreibungenPreise
    Mit Claude entwickeln
    FunktionsübersichtMessages API verwendenStop-Gründe verarbeitenBest Practices für Prompts
    Modellfähigkeiten
    Extended ThinkingAdaptive ThinkingAufwandFast Mode (Research Preview)Strukturierte AusgabenZitateStreaming MessagesBatch-VerarbeitungPDF-UnterstützungSuchergebnisseMehrsprachige UnterstützungEmbeddingsVision
    Tools
    ÜbersichtTool-Nutzung implementierenWeb-Such-ToolWeb-Abruf-ToolCode-Ausführungs-ToolMemory-ToolBash-ToolComputer-Use-ToolText-Editor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammgesteuerte Tool-AufrufeFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt CachingToken-Zählung
    Dateien & Assets
    Files API
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills für UnternehmenSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Preview)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System Prompts)Komplexe Prompts verkettenTipps für lange KontexteTipps für Extended Thinking
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungstool verwendenLatenz reduzieren
    Schutzmaßnahmen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtDatenspeicherortArbeitsbereicheUsage and Cost APIClaude Code Analytics APIZero Data Retention
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Schutzmaßnahmen verstärken

    Halluzinationen reduzieren

    Selbst die fortschrittlichsten Sprachmodelle wie Claude können manchmal Text generieren, der sachlich falsch oder inkonsistent mit dem gegebenen Kontext ist. Dieses Phänomen, bekannt als "Halluzination", kann die Zuverlässigkeit Ihrer KI-gestützten Lösungen beeinträchtigen. Dieser Leitfaden wird Techniken zur Minimierung von Halluzinationen erkunden und sicherstellen, dass Claudes Ausgaben genau und vertrauenswürdig sind.

    Grundlegende Strategien zur Minimierung von Halluzinationen

    • Erlauben Sie Claude "Ich weiß es nicht" zu sagen: Geben Sie Claude ausdrücklich die Erlaubnis, Unsicherheit einzugestehen. Diese einfache Technik kann falsche Informationen drastisch reduzieren.

    • Verwenden Sie direkte Zitate zur faktischen Fundierung: Bei Aufgaben mit langen Dokumenten (>20K Token) bitten Sie Claude, zuerst wörtliche Zitate zu extrahieren, bevor es seine Aufgabe ausführt. Dies verankert seine Antworten im tatsächlichen Text und reduziert Halluzinationen.

    • Mit Zitaten verifizieren: Machen Sie Claudes Antworten überprüfbar, indem Sie es Zitate und Quellen für jede seiner Behauptungen angeben lassen. Sie können Claude auch jede Behauptung verifizieren lassen, indem es nach der Generierung einer Antwort ein unterstützendes Zitat findet. Wenn es kein Zitat finden kann, muss es die Behauptung zurückziehen.


    Fortgeschrittene Techniken

    • Gedankenketten-Verifizierung: Bitten Sie Claude, seine Gedankengänge Schritt für Schritt zu erklären, bevor es eine endgültige Antwort gibt. Dies kann fehlerhafte Logik oder Annahmen aufdecken.

    • Best-of-N-Verifizierung: Führen Sie Claude mehrmals durch denselben Prompt und vergleichen Sie die Ausgaben. Inkonsistenzen zwischen den Ausgaben könnten auf Halluzinationen hinweisen.

    • Iterative Verfeinerung: Verwenden Sie Claudes Ausgaben als Eingaben für Folge-Prompts und bitten Sie es, vorherige Aussagen zu überprüfen oder zu erweitern. Dies kann Inkonsistenzen aufdecken und korrigieren.

    • Einschränkung externen Wissens: Weisen Sie Claude ausdrücklich an, nur Informationen aus bereitgestellten Dokumenten und nicht sein allgemeines Wissen zu verwenden.

    Denken Sie daran, dass diese Techniken Halluzinationen zwar erheblich reduzieren, sie aber nicht vollständig eliminieren. Überprüfen Sie immer kritische Informationen, besonders bei wichtigen Entscheidungen.

    Was this page helpful?

    • Grundlegende Strategien zur Minimierung von Halluzinationen
    • Fortgeschrittene Techniken