Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K

    Premiers pas

    Introduction à ClaudeDémarrage rapide

    Modèles et tarification

    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.5Migration vers Claude 4.5Dépréciations de modèlesTarification

    Créer avec Claude

    Aperçu des fonctionnalitésTravailler avec l'API MessagesFenêtres de contexteMeilleures pratiques de prompting

    Capacités

    Mise en cache des invitesÉdition du contexteRéflexion étendueMessages en streamingTraitement par lotsCitationsSupport multilingueComptage de tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheExtension Google Sheets

    Outils

    AperçuComment implémenter l'utilisation d'outilsUtilisation efficace des outils en termes de jetonsStreaming d'outils à granularité fineOutil BashOutil d'exécution de codeOutil d'utilisation d'ordinateurOutil d'éditeur de texteOutil de récupération webOutil de recherche webOutil de mémoire

    Compétences de l'Agent

    Compétences d'AgentCommencer avec les Agent Skills dans l'APIBonnes pratiques de création de SkillsUtilisation des compétences

    SDK Agent

    AperçuRéférence du SDK Agent - TypeScriptRéférence du SDK Agent - Python

    Guides

    Entrée en StreamingGestion des PermissionsGestion des SessionsHébergement du SDK AgentModification des invites systèmeMCP dans le SDKOutils PersonnalisésSous-agents dans le SDKCommandes Slash dans le SDKCompétences d'agent dans le SDKSuivi des Coûts et de l'UtilisationListes de TâchesPlugins dans le SDK

    MCP dans l'API

    Connecteur MCPServeurs MCP distants

    Claude sur les plateformes tierces

    Amazon BedrockVertex AI

    Ingénierie des prompts

    AperçuGénérateur de promptsUtiliser des modèles de promptsAméliorateur de promptsSoyez clair et directUtiliser des exemples (prompting multishot)Laissez Claude réfléchir (CoT)Utiliser les balises XMLDonner un rôle à Claude (invites système)Préremplissez la réponse de ClaudeEnchaîner des prompts complexesConseils contexte longConseils pour la réflexion étendue

    Tester et évaluer

    Définir les critères de réussiteDévelopper des cas de testUtilisation de l'outil d'évaluationRéduction de la latence

    Renforcer les garde-fous

    Réduire les hallucinationsAméliorer la cohérenceAtténuer les jailbreakshandle-streaming-refusalsRéduire la fuite de promptGarder Claude dans son rôle

    Administration et surveillance

    Aperçu de l'API AdminAPI d'utilisation et de coûtAPI Claude Code Analytics
    Console
    Tester et évaluer

    Utilisation de l'outil d'évaluation

    La Console Claude dispose d'un outil d'évaluation qui vous permet de tester vos prompts sous différents scénarios.

    Accès à la fonctionnalité d'évaluation

    Pour commencer avec l'outil d'évaluation :

    1. Ouvrez la Console Claude et naviguez vers l'éditeur de prompts.
    2. Après avoir composé votre prompt, recherchez l'onglet 'Evaluate' en haut de l'écran.

    Accès à la fonctionnalité d'évaluation

    Assurez-vous que votre prompt inclut au moins 1-2 variables dynamiques en utilisant la syntaxe à double accolades : {{variable}}. Ceci est requis pour créer des ensembles de tests d'évaluation.

    Génération de prompts

    La Console offre un générateur de prompts intégré alimenté par Claude Opus 4.1 :

    1. 1

      Cliquez sur 'Generate Prompt'

      Cliquer sur l'outil d'aide 'Generate Prompt' ouvrira une fenêtre modale qui vous permet de saisir les informations de votre tâche.

    2. 2

      Décrivez votre tâche

      Décrivez votre tâche souhaitée (par exemple, "Trier les demandes de support client entrant") avec autant ou aussi peu de détails que vous le souhaitez. Plus vous incluez de contexte, plus Claude peut adapter son prompt généré à vos besoins spécifiques.

    3. 3

      Générez votre prompt

      Cliquer sur le bouton orange 'Generate Prompt' en bas fera que Claude génère un prompt de haute qualité pour vous. Vous pouvez ensuite améliorer davantage ces prompts en utilisant l'écran d'évaluation dans la Console.

    Cette fonctionnalité facilite la création de prompts avec la syntaxe de variable appropriée pour l'évaluation.

    Générateur de prompts

    Création de cas de test

    Lorsque vous accédez à l'écran d'évaluation, vous avez plusieurs options pour créer des cas de test :

    1. Cliquez sur le bouton '+ Add Row' en bas à gauche pour ajouter manuellement un cas.
    2. Utilisez la fonctionnalité 'Generate Test Case' pour que Claude génère automatiquement des cas de test pour vous.
    3. Importez des cas de test à partir d'un fichier CSV.

    Pour utiliser la fonctionnalité 'Generate Test Case' :

    1. 1

      Cliquez sur 'Generate Test Case'

      Claude générera des cas de test pour vous, une ligne à la fois pour chaque fois que vous cliquez sur le bouton.

    2. 2

      Modifiez la logique de génération (optionnel)

      Vous pouvez également modifier la logique de génération de cas de test en cliquant sur la flèche déroulante à droite du bouton 'Generate Test Case', puis sur 'Show generation logic' en haut de la fenêtre Variables qui apparaît. Vous devrez peut-être cliquer sur `Generate' en haut à droite de cette fenêtre pour remplir la logique de génération initiale.

      Modifier ceci vous permet de personnaliser et d'affiner les cas de test que Claude génère avec une plus grande précision et spécificité.

    Voici un exemple d'un écran d'évaluation rempli avec plusieurs cas de test :

    Écran d'évaluation rempli

    Si vous mettez à jour votre texte de prompt original, vous pouvez relancer toute la suite d'évaluation contre le nouveau prompt pour voir comment les changements affectent les performances sur tous les cas de test.

    Conseils pour une évaluation efficace

    Utilisez l'outil d'aide 'Generate a prompt' dans la Console pour créer rapidement des prompts avec la syntaxe de variable appropriée pour l'évaluation.

    Comprendre et comparer les résultats

    L'outil d'évaluation offre plusieurs fonctionnalités pour vous aider à affiner vos prompts :

    1. Comparaison côte à côte : Comparez les sorties de deux ou plusieurs prompts pour voir rapidement l'impact de vos changements.
    2. Notation de qualité : Notez la qualité des réponses sur une échelle de 5 points pour suivre les améliorations de la qualité des réponses par prompt.
    3. Versioning de prompts : Créez de nouvelles versions de votre prompt et relancez la suite de tests pour itérer rapidement et améliorer les résultats.

    En examinant les résultats à travers les cas de test et en comparant différentes versions de prompts, vous pouvez repérer des modèles et faire des ajustements éclairés à votre prompt plus efficacement.

    Commencez à évaluer vos prompts aujourd'hui pour construire des applications IA plus robustes avec Claude !

    • Accès à la fonctionnalité d'évaluation
    • Génération de prompts
    • Création de cas de test
    • Conseils pour une évaluation efficace
    • Comprendre et comparer les résultats
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC