Loading...
    • Entwicklerleitfaden
    • API-Referenz
    • MCP
    • Ressourcen
    • Versionshinweise
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnelleinstieg
    Modelle & Preise
    ModellübersichtModell auswählenNeuerungen in Claude 4.5Migration zu Claude 4.5ModellabschreibungenPreise
    Mit Claude erstellen
    FunktionsübersichtMessages API verwendenKontextfensterBest Practices für Prompts
    Fähigkeiten
    Prompt-CachingKontext-BearbeitungErweitertes DenkenAufwandStreaming MessagesBatch-VerarbeitungZitateMehrsprachige UnterstützungToken-ZählungEmbeddingsVisionPDF-UnterstützungFiles APISuchergebnisseStrukturierte Ausgaben
    Tools
    ÜbersichtTool-Nutzung implementierenFeingranulares Tool-StreamingBash-ToolCode-Ausführungs-ToolProgrammatischer Tool-AufrufComputer-Use-ToolText-Editor-ToolWeb-Fetch-ToolWeb-Such-ToolMemory-ToolTool-Such-Tool
    Agent Skills
    ÜbersichtSchnelleinstiegBest PracticesSkills mit der API verwenden
    Agent SDK
    ÜbersichtSchnelleinstiegTypeScript SDKTypeScript V2 (Vorschau)Python SDKMigrationsleitfaden
    MCP in der API
    MCP-ConnectorRemote MCP-Server
    Claude auf Plattformen von Drittanbietern
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt Engineering
    ÜbersichtPrompt-GeneratorPrompt-Vorlagen verwendenPrompt-VerbessererKlar und direkt seinBeispiele verwenden (Multishot-Prompting)Claude denken lassen (CoT)XML-Tags verwendenClaude eine Rolle geben (System-Prompts)Claudes Antwort vorausfüllenKomplexe Prompts verkettenTipps für langen KontextTipps für erweitertes Denken
    Testen & Evaluieren
    Erfolgskriterien definierenTestfälle entwickelnEvaluierungs-Tool verwendenLatenz reduzieren
    Schutzvorrichtungen verstärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abschwächenStreaming-AblehnungenPrompt-Lecks reduzierenClaude im Charakter halten
    Verwaltung und Überwachung
    Admin API ÜbersichtNutzungs- und Kosten-APIClaude Code Analytics API
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Testen & Evaluieren

    Verwendung des Evaluierungs-Tools

    Die Claude Console verfügt über ein Evaluierungs-Tool, mit dem Sie Ihre Prompts unter verschiedenen Szenarien testen können.

    Zugriff auf die Evaluierungs-Funktion

    Um mit dem Evaluierungs-Tool zu beginnen:

    1. Öffnen Sie die Claude Console und navigieren Sie zum Prompt-Editor.
    2. Nachdem Sie Ihren Prompt verfasst haben, suchen Sie nach dem 'Evaluieren'-Tab oben auf dem Bildschirm.

    Zugriff auf die Evaluierungs-Funktion

    Stellen Sie sicher, dass Ihr Prompt mindestens 1-2 dynamische Variablen mit der doppelten geschweiften Klammer-Syntax enthält: {{variable}}. Dies ist erforderlich für die Erstellung von Evaluierungs-Testsets.

    Generierung von Prompts

    Die Console bietet einen eingebauten Prompt-Generator, der von Claude Opus 4.1 betrieben wird:

    1. 1

      Klicken Sie auf 'Prompt Generieren'

      Das Klicken auf das 'Prompt Generieren'-Hilfstool öffnet ein Modal, in dem Sie Ihre Aufgabeninformationen eingeben können.

    2. 2

      Beschreiben Sie Ihre Aufgabe

      Beschreiben Sie Ihre gewünschte Aufgabe (z.B. "Eingehende Kundensupport-Anfragen triagieren") mit so viel oder so wenig Detail, wie Sie möchten. Je mehr Kontext Sie einbeziehen, desto mehr kann Claude seinen generierten Prompt an Ihre spezifischen Bedürfnisse anpassen.

    3. 3

      Generieren Sie Ihren Prompt

      Das Klicken auf den orangenen 'Prompt Generieren'-Button unten lässt Claude einen hochwertigen Prompt für Sie generieren. Sie können diese Prompts dann mit dem Evaluierungs-Bildschirm in der Console weiter verbessern.

    Diese Funktion macht es einfacher, Prompts mit der entsprechenden Variablen-Syntax für die Evaluierung zu erstellen.

    Prompt-Generator

    Erstellung von Testfällen

    Wenn Sie auf den Evaluierungs-Bildschirm zugreifen, haben Sie mehrere Optionen zur Erstellung von Testfällen:

    1. Klicken Sie auf den '+ Zeile hinzufügen'-Button unten links, um manuell einen Fall hinzuzufügen.
    2. Verwenden Sie die 'Testfall Generieren'-Funktion, um Claude automatisch Testfälle für Sie generieren zu lassen.
    3. Importieren Sie Testfälle aus einer CSV-Datei.

    Um die 'Testfall Generieren'-Funktion zu verwenden:

    1. 1

      Klicken Sie auf 'Testfall Generieren'

      Claude wird Testfälle für Sie generieren, eine Zeile nach der anderen für jedes Mal, wenn Sie den Button klicken.

    2. 2

      Generierungslogik bearbeiten (optional)

      Sie können auch die Testfall-Generierungslogik bearbeiten, indem Sie auf den Pfeil-Dropdown rechts neben dem 'Testfall Generieren'-Button klicken, dann auf 'Generierungslogik anzeigen' oben im Variablen-Fenster, das sich öffnet. Möglicherweise müssen Sie auf 'Generieren' oben rechts in diesem Fenster klicken, um die anfängliche Generierungslogik zu füllen.

      Das Bearbeiten ermöglicht es Ihnen, die Testfälle, die Claude generiert, mit größerer Präzision und Spezifität anzupassen und fein abzustimmen.

    Hier ist ein Beispiel eines gefüllten Evaluierungs-Bildschirms mit mehreren Testfällen:

    Gefüllter Evaluierungs-Bildschirm

    Wenn Sie Ihren ursprünglichen Prompt-Text aktualisieren, können Sie die gesamte Evaluierungs-Suite gegen den neuen Prompt erneut ausführen, um zu sehen, wie sich Änderungen auf die Leistung über alle Testfälle hinweg auswirken.

    Tipps für effektive Evaluierung

    Verwenden Sie das 'Prompt generieren'-Hilfstool in der Console, um schnell Prompts mit der entsprechenden Variablen-Syntax für die Evaluierung zu erstellen.

    Verstehen und Vergleichen von Ergebnissen

    Das Evaluierungs-Tool bietet mehrere Funktionen, um Ihnen bei der Verfeinerung Ihrer Prompts zu helfen:

    1. Seite-an-Seite-Vergleich: Vergleichen Sie die Ausgaben von zwei oder mehr Prompts, um schnell die Auswirkungen Ihrer Änderungen zu sehen.
    2. Qualitätsbewertung: Bewerten Sie die Antwortqualität auf einer 5-Punkte-Skala, um Verbesserungen in der Antwortqualität pro Prompt zu verfolgen.
    3. Prompt-Versionierung: Erstellen Sie neue Versionen Ihres Prompts und führen Sie die Test-Suite erneut aus, um schnell zu iterieren und Ergebnisse zu verbessern.

    Durch die Überprüfung der Ergebnisse über Testfälle hinweg und den Vergleich verschiedener Prompt-Versionen können Sie Muster erkennen und informierte Anpassungen an Ihrem Prompt effizienter vornehmen.

    Beginnen Sie heute mit der Evaluierung Ihrer Prompts, um robustere KI-Anwendungen mit Claude zu erstellen!

    • Zugriff auf die Evaluierungs-Funktion
    • Generierung von Prompts
    • Erstellung von Testfällen
    • Tipps für effektive Evaluierung
    • Verstehen und Vergleichen von Ergebnissen