Loading...
    • Erstellen
    • Admin
    • Modelle & Preise
    • Client SDKs
    • API-Referenz
    Search...
    ⌘K
    Erste Schritte
    Einführung in ClaudeSchnellstart
    Entwickeln mit Claude
    FunktionsübersichtVerwendung der Messages APIStoppgründe behandeln
    Modellfähigkeiten
    Erweitertes DenkenAdaptives DenkenAufwandSchnellmodus (Beta: Forschungsvorschau)Strukturierte AusgabenZitateStreaming-NachrichtenStapelverarbeitungSuchergebnisseStreaming-AblehnungenMehrsprachige UnterstützungEmbeddings
    Tools
    ÜbersichtWie Tool-Nutzung funktioniertWeb-SuchtoolWeb-AbruftoolCode-AusführungstoolSpeichertoolBash-ToolComputer-Use-ToolTexteditor-Tool
    Tool-Infrastruktur
    Tool-SucheProgrammatisches Tool-AufrufenFeingranulares Tool-Streaming
    Kontextverwaltung
    KontextfensterKomprimierungKontextbearbeitungPrompt-CachingToken-Zählung
    Mit Dateien arbeiten
    Files APIPDF-UnterstützungBilder und Vision
    Skills
    ÜbersichtSchnellstartBest PracticesSkills für UnternehmenSkills in der API
    MCP
    Remote-MCP-ServerMCP-Connector
    Prompt-Engineering
    ÜbersichtBest Practices für PromptsConsole-Prompting-Tools
    Testen und Evaluieren
    Erfolg definieren und Evaluierungen erstellenDas Evaluierungstool in der Console verwendenLatenz reduzieren
    Leitplanken stärken
    Halluzinationen reduzierenAusgabekonsistenz erhöhenJailbreaks abmildernPrompt-Lecks reduzieren
    Ressourcen
    Glossar
    Versionshinweise
    Claude Platform
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Testen und Evaluieren

    Verwendung des Evaluierungs-Tools

    Die Claude Console verfügt über ein Evaluierungs-Tool, mit dem Sie Ihre Prompts unter verschiedenen Szenarien testen können.

    Zugriff auf die Evaluierungs-Funktion

    Um mit dem Evaluierungs-Tool zu beginnen:

    1. Öffnen Sie die Claude Console und navigieren Sie zum Prompt-Editor.
    2. Nachdem Sie Ihren Prompt verfasst haben, suchen Sie nach dem 'Evaluieren'-Tab oben auf dem Bildschirm.

    Zugriff auf die Evaluierungs-Funktion

    Stellen Sie sicher, dass Ihr Prompt mindestens 1-2 dynamische Variablen mit der doppelten geschweiften Klammer-Syntax enthält: {{variable}}. Dies ist erforderlich für die Erstellung von Evaluierungs-Testsets.

    Generierung von Prompts

    Die Console bietet einen eingebauten Prompt-Generator, der von Claude Opus 4.1 betrieben wird:

    1. 1

      Klicken Sie auf 'Prompt Generieren'

      Das Klicken auf das 'Prompt Generieren'-Hilfstool öffnet ein Modal, in dem Sie Ihre Aufgabeninformationen eingeben können.

    2. 2

      Beschreiben Sie Ihre Aufgabe

      Beschreiben Sie Ihre gewünschte Aufgabe (z.B. "Eingehende Kundensupport-Anfragen triagieren") mit so viel oder so wenig Detail, wie Sie möchten. Je mehr Kontext Sie einbeziehen, desto mehr kann Claude seinen generierten Prompt an Ihre spezifischen Bedürfnisse anpassen.

    3. 3

      Generieren Sie Ihren Prompt

      Das Klicken auf den orangenen 'Prompt Generieren'-Button unten lässt Claude einen hochwertigen Prompt für Sie generieren. Sie können diese Prompts dann mit dem Evaluierungs-Bildschirm in der Console weiter verbessern.

    Diese Funktion macht es einfacher, Prompts mit der entsprechenden Variablen-Syntax für die Evaluierung zu erstellen.

    Prompt-Generator

    Erstellung von Testfällen

    Wenn Sie auf den Evaluierungs-Bildschirm zugreifen, haben Sie mehrere Optionen zur Erstellung von Testfällen:

    1. Klicken Sie auf den '+ Zeile hinzufügen'-Button unten links, um manuell einen Fall hinzuzufügen.
    2. Verwenden Sie die 'Testfall Generieren'-Funktion, um Claude automatisch Testfälle für Sie generieren zu lassen.
    3. Importieren Sie Testfälle aus einer CSV-Datei.

    Um die 'Testfall Generieren'-Funktion zu verwenden:

    1. 1

      Klicken Sie auf 'Testfall Generieren'

      Claude wird Testfälle für Sie generieren, eine Zeile nach der anderen für jedes Mal, wenn Sie den Button klicken.

    2. 2

      Generierungslogik bearbeiten (optional)

      Sie können auch die Testfall-Generierungslogik bearbeiten, indem Sie auf den Pfeil-Dropdown rechts neben dem 'Testfall Generieren'-Button klicken, dann auf 'Generierungslogik anzeigen' oben im Variablen-Fenster, das sich öffnet. Möglicherweise müssen Sie auf 'Generieren' oben rechts in diesem Fenster klicken, um die anfängliche Generierungslogik zu füllen.

      Das Bearbeiten ermöglicht es Ihnen, die Testfälle, die Claude generiert, mit größerer Präzision und Spezifität anzupassen und fein abzustimmen.

    Hier ist ein Beispiel eines gefüllten Evaluierungs-Bildschirms mit mehreren Testfällen:

    Gefüllter Evaluierungs-Bildschirm

    Wenn Sie Ihren ursprünglichen Prompt-Text aktualisieren, können Sie die gesamte Evaluierungs-Suite gegen den neuen Prompt erneut ausführen, um zu sehen, wie sich Änderungen auf die Leistung über alle Testfälle hinweg auswirken.

    Tipps für effektive Evaluierung

    Verwenden Sie das 'Prompt generieren'-Hilfstool in der Console, um schnell Prompts mit der entsprechenden Variablen-Syntax für die Evaluierung zu erstellen.

    Verstehen und Vergleichen von Ergebnissen

    Das Evaluierungs-Tool bietet mehrere Funktionen, um Ihnen bei der Verfeinerung Ihrer Prompts zu helfen:

    1. Seite-an-Seite-Vergleich: Vergleichen Sie die Ausgaben von zwei oder mehr Prompts, um schnell die Auswirkungen Ihrer Änderungen zu sehen.
    2. Qualitätsbewertung: Bewerten Sie die Antwortqualität auf einer 5-Punkte-Skala, um Verbesserungen in der Antwortqualität pro Prompt zu verfolgen.
    3. Prompt-Versionierung: Erstellen Sie neue Versionen Ihres Prompts und führen Sie die Test-Suite erneut aus, um schnell zu iterieren und Ergebnisse zu verbessern.

    Durch die Überprüfung der Ergebnisse über Testfälle hinweg und den Vergleich verschiedener Prompt-Versionen können Sie Muster erkennen und informierte Anpassungen an Ihrem Prompt effizienter vornehmen.

    Beginnen Sie heute mit der Evaluierung Ihrer Prompts, um robustere KI-Anwendungen mit Claude zu erstellen!

    Was this page helpful?

    • Zugriff auf die Evaluierungs-Funktion
    • Generierung von Prompts
    • Erstellung von Testfällen
    • Tipps für effektive Evaluierung
    • Verstehen und Vergleichen von Ergebnissen