Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Modèles et tarification
    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.5Migration vers Claude 4.5Dépréciation des modèlesTarification
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesFenêtres de contexteMeilleures pratiques de prompting
    Capacités
    Mise en cache des promptsÉdition de contexteRéflexion étendueEffortStreaming de messagesTraitement par lotsCitationsSupport multilingueComptage de tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheSorties structurées
    Outils
    AperçuComment implémenter l'utilisation d'outilsStreaming d'outils granulaireOutil BashOutil d'exécution de codeAppel d'outils programmatiqueOutil Computer useOutil Éditeur de texteOutil Web fetchOutil Web searchOutil MemoryOutil Tool search
    Agent Skills
    AperçuDémarrage rapideMeilleures pratiquesUtiliser Skills avec l'API
    Agent SDK
    AperçuDémarrage rapideSDK TypeScriptTypeScript V2 (aperçu)SDK PythonGuide de migration
    MCP dans l'API
    Connecteur MCPServeurs MCP distants
    Claude sur des plateformes tierces
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingénierie des prompts
    AperçuGénérateur de promptsUtiliser des modèles de promptsAméliorateur de promptsÊtre clair et directUtiliser des exemples (prompting multi-shot)Laisser Claude réfléchir (CoT)Utiliser des balises XMLDonner un rôle à Claude (prompts système)Pré-remplir la réponse de ClaudeChaîner des prompts complexesConseils pour le contexte longConseils pour la réflexion étendue
    Tester et évaluer
    Définir les critères de succèsDévelopper des cas de testUtiliser l'outil d'évaluationRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRefus en streamingRéduire les fuites de promptsGarder Claude dans le rôle
    Administration et surveillance
    Aperçu de l'API AdminAPI Utilisation et coûtsAPI Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Tester et évaluer

    Utilisation de l'outil d'évaluation

    La Console Claude dispose d'un outil d'évaluation qui vous permet de tester vos prompts sous différents scénarios.

    Accès à la fonctionnalité d'évaluation

    Pour commencer avec l'outil d'évaluation :

    1. Ouvrez la Console Claude et naviguez vers l'éditeur de prompts.
    2. Après avoir composé votre prompt, recherchez l'onglet 'Evaluate' en haut de l'écran.

    Accès à la fonctionnalité d'évaluation

    Assurez-vous que votre prompt inclut au moins 1-2 variables dynamiques en utilisant la syntaxe à double accolades : {{variable}}. Ceci est requis pour créer des ensembles de tests d'évaluation.

    Génération de prompts

    La Console offre un générateur de prompts intégré alimenté par Claude Opus 4.1 :

    1. 1

      Cliquez sur 'Generate Prompt'

      Cliquer sur l'outil d'aide 'Generate Prompt' ouvrira une fenêtre modale qui vous permet de saisir les informations de votre tâche.

    2. 2

      Décrivez votre tâche

      Décrivez votre tâche souhaitée (par exemple, "Trier les demandes de support client entrant") avec autant ou aussi peu de détails que vous le souhaitez. Plus vous incluez de contexte, plus Claude peut adapter son prompt généré à vos besoins spécifiques.

    3. 3

      Générez votre prompt

      Cliquer sur le bouton orange 'Generate Prompt' en bas fera que Claude génère un prompt de haute qualité pour vous. Vous pouvez ensuite améliorer davantage ces prompts en utilisant l'écran d'évaluation dans la Console.

    Cette fonctionnalité facilite la création de prompts avec la syntaxe de variable appropriée pour l'évaluation.

    Générateur de prompts

    Création de cas de test

    Lorsque vous accédez à l'écran d'évaluation, vous avez plusieurs options pour créer des cas de test :

    1. Cliquez sur le bouton '+ Add Row' en bas à gauche pour ajouter manuellement un cas.
    2. Utilisez la fonctionnalité 'Generate Test Case' pour que Claude génère automatiquement des cas de test pour vous.
    3. Importez des cas de test à partir d'un fichier CSV.

    Pour utiliser la fonctionnalité 'Generate Test Case' :

    1. 1

      Cliquez sur 'Generate Test Case'

      Claude générera des cas de test pour vous, une ligne à la fois pour chaque fois que vous cliquez sur le bouton.

    2. 2

      Modifiez la logique de génération (optionnel)

      Vous pouvez également modifier la logique de génération de cas de test en cliquant sur la flèche déroulante à droite du bouton 'Generate Test Case', puis sur 'Show generation logic' en haut de la fenêtre Variables qui apparaît. Vous devrez peut-être cliquer sur `Generate' en haut à droite de cette fenêtre pour remplir la logique de génération initiale.

      Modifier ceci vous permet de personnaliser et d'affiner les cas de test que Claude génère avec une plus grande précision et spécificité.

    Voici un exemple d'un écran d'évaluation rempli avec plusieurs cas de test :

    Écran d'évaluation rempli

    Si vous mettez à jour votre texte de prompt original, vous pouvez relancer toute la suite d'évaluation contre le nouveau prompt pour voir comment les changements affectent les performances sur tous les cas de test.

    Conseils pour une évaluation efficace

    Utilisez l'outil d'aide 'Generate a prompt' dans la Console pour créer rapidement des prompts avec la syntaxe de variable appropriée pour l'évaluation.

    Comprendre et comparer les résultats

    L'outil d'évaluation offre plusieurs fonctionnalités pour vous aider à affiner vos prompts :

    1. Comparaison côte à côte : Comparez les sorties de deux ou plusieurs prompts pour voir rapidement l'impact de vos changements.
    2. Notation de qualité : Notez la qualité des réponses sur une échelle de 5 points pour suivre les améliorations de la qualité des réponses par prompt.
    3. Versioning de prompts : Créez de nouvelles versions de votre prompt et relancez la suite de tests pour itérer rapidement et améliorer les résultats.

    En examinant les résultats à travers les cas de test et en comparant différentes versions de prompts, vous pouvez repérer des modèles et faire des ajustements éclairés à votre prompt plus efficacement.

    Commencez à évaluer vos prompts aujourd'hui pour construire des applications IA plus robustes avec Claude !

    • Accès à la fonctionnalité d'évaluation
    • Génération de prompts
    • Création de cas de test
    • Conseils pour une évaluation efficace
    • Comprendre et comparer les résultats