Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K

    Premiers pas

    Introduction à ClaudeDémarrage rapide

    Modèles et tarification

    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.5Migration vers Claude 4.5Dépréciations de modèlesTarification

    Créer avec Claude

    Aperçu des fonctionnalitésTravailler avec l'API MessagesFenêtres de contexteMeilleures pratiques de prompting

    Capacités

    Mise en cache des invitesÉdition du contexteRéflexion étendueMessages en streamingTraitement par lotsCitationsSupport multilingueComptage de tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheExtension Google Sheets

    Outils

    AperçuComment implémenter l'utilisation d'outilsUtilisation efficace des outils en termes de jetonsStreaming d'outils à granularité fineOutil BashOutil d'exécution de codeOutil d'utilisation d'ordinateurOutil d'éditeur de texteOutil de récupération webOutil de recherche webOutil de mémoire

    Compétences de l'Agent

    Compétences d'AgentCommencer avec les Agent Skills dans l'APIBonnes pratiques de création de SkillsUtilisation des compétences

    SDK Agent

    AperçuRéférence du SDK Agent - TypeScriptRéférence du SDK Agent - Python

    Guides

    Entrée en StreamingGestion des PermissionsGestion des SessionsHébergement du SDK AgentModification des invites systèmeMCP dans le SDKOutils PersonnalisésSous-agents dans le SDKCommandes Slash dans le SDKCompétences d'agent dans le SDKSuivi des Coûts et de l'UtilisationListes de TâchesPlugins dans le SDK

    MCP dans l'API

    Connecteur MCPServeurs MCP distants

    Claude sur les plateformes tierces

    Amazon BedrockVertex AI

    Ingénierie des prompts

    AperçuGénérateur de promptsUtiliser des modèles de promptsAméliorateur de promptsSoyez clair et directUtiliser des exemples (prompting multishot)Laissez Claude réfléchir (CoT)Utiliser les balises XMLDonner un rôle à Claude (invites système)Préremplissez la réponse de ClaudeEnchaîner des prompts complexesConseils contexte longConseils pour la réflexion étendue

    Tester et évaluer

    Définir les critères de réussiteDévelopper des cas de testUtilisation de l'outil d'évaluationRéduction de la latence

    Renforcer les garde-fous

    Réduire les hallucinationsAméliorer la cohérenceAtténuer les jailbreakshandle-streaming-refusalsRéduire la fuite de promptGarder Claude dans son rôle

    Administration et surveillance

    Aperçu de l'API AdminAPI d'utilisation et de coûtAPI Claude Code Analytics
    Console
    Renforcer les garde-fous

    Réduire les hallucinations

    Même les modèles de langage les plus avancés, comme Claude, peuvent parfois générer du texte qui est factuellement incorrect ou incohérent avec le contexte donné. Ce phénomène, connu sous le nom d'"hallucination", peut compromettre la fiabilité de vos solutions basées sur l'IA. Ce guide explorera les techniques pour minimiser les hallucinations et garantir que les résultats de Claude sont précis et fiables.

    Stratégies de base pour minimiser les hallucinations

    • Permettre à Claude de dire "Je ne sais pas" : Donnez explicitement à Claude la permission d'admettre son incertitude. Cette technique simple peut considérablement réduire les fausses informations.

    • Utiliser des citations directes pour l'ancrage factuel : Pour les tâches impliquant de longs documents (>20K tokens), demandez à Claude d'extraire d'abord des citations mot pour mot avant d'effectuer sa tâche. Cela ancre ses réponses dans le texte réel, réduisant les hallucinations.

    • Vérifier avec des citations : Rendez la réponse de Claude vérifiable en lui faisant citer des extraits et des sources pour chacune de ses affirmations. Vous pouvez également faire vérifier par Claude chaque affirmation en trouvant une citation à l'appui après avoir généré une réponse. S'il ne peut pas trouver de citation, il doit retirer l'affirmation.


    Techniques avancées

    • Vérification par chaîne de pensée : Demandez à Claude d'expliquer son raisonnement étape par étape avant de donner une réponse finale. Cela peut révéler une logique ou des hypothèses erronées.

    • Vérification Best-of-N : Exécutez Claude avec le même prompt plusieurs fois et comparez les résultats. Les incohérences entre les résultats pourraient indiquer des hallucinations.

    • Raffinement itératif : Utilisez les sorties de Claude comme entrées pour des prompts de suivi, en lui demandant de vérifier ou d'approfondir les déclarations précédentes. Cela peut détecter et corriger les incohérences.

    • Restriction des connaissances externes : Demandez explicitement à Claude de n'utiliser que les informations des documents fournis et non ses connaissances générales.

    Rappelez-vous que, bien que ces techniques réduisent considérablement les hallucinations, elles ne les éliminent pas complètement. Validez toujours les informations critiques, en particulier pour les décisions à enjeux élevés.
    • Stratégies de base pour minimiser les hallucinations
    • Techniques avancées
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC