Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Modèles et tarification
    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.5Migration vers Claude 4.5Dépréciation des modèlesTarification
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesFenêtres de contexteMeilleures pratiques de prompting
    Capacités
    Mise en cache des promptsÉdition de contexteRéflexion étendueEffortStreaming de messagesTraitement par lotsCitationsSupport multilingueComptage de tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheSorties structurées
    Outils
    AperçuComment implémenter l'utilisation d'outilsStreaming d'outils granulaireOutil BashOutil d'exécution de codeAppel d'outils programmatiqueOutil Computer useOutil Éditeur de texteOutil Web fetchOutil Web searchOutil MemoryOutil Tool search
    Agent Skills
    AperçuDémarrage rapideMeilleures pratiquesUtiliser Skills avec l'API
    Agent SDK
    AperçuDémarrage rapideSDK TypeScriptTypeScript V2 (aperçu)SDK PythonGuide de migration
    MCP dans l'API
    Connecteur MCPServeurs MCP distants
    Claude sur des plateformes tierces
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingénierie des prompts
    AperçuGénérateur de promptsUtiliser des modèles de promptsAméliorateur de promptsÊtre clair et directUtiliser des exemples (prompting multi-shot)Laisser Claude réfléchir (CoT)Utiliser des balises XMLDonner un rôle à Claude (prompts système)Pré-remplir la réponse de ClaudeChaîner des prompts complexesConseils pour le contexte longConseils pour la réflexion étendue
    Tester et évaluer
    Définir les critères de succèsDévelopper des cas de testUtiliser l'outil d'évaluationRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRefus en streamingRéduire les fuites de promptsGarder Claude dans le rôle
    Administration et surveillance
    Aperçu de l'API AdminAPI Utilisation et coûtsAPI Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Renforcer les garde-fous

    Réduire la fuite de prompt

    Les fuites de prompt peuvent exposer des informations sensibles que vous pensez être "cachées" dans votre prompt. Bien qu'aucune méthode ne soit infaillible, les stratégies ci-dessous peuvent réduire considérablement le risque.

    Avant d'essayer de réduire la fuite de prompt

    Nous recommandons d'utiliser des stratégies d'ingénierie de prompt résistantes aux fuites uniquement lorsque c'est absolument nécessaire. Les tentatives de sécurisation de votre prompt peuvent ajouter une complexité qui peut dégrader les performances dans d'autres parties de la tâche en augmentant la complexité de la tâche globale du LLM.

    Si vous décidez de mettre en œuvre des techniques résistantes aux fuites, assurez-vous de tester vos prompts de manière approfondie pour garantir que la complexité ajoutée n'impacte pas négativement les performances du modèle ou la qualité de ses résultats.

    Essayez d'abord les techniques de surveillance, comme le filtrage des sorties et le post-traitement, pour tenter de détecter les cas de fuite de prompt.

    Stratégies pour réduire la fuite de prompt

    • Séparer le contexte des requêtes : Vous pouvez essayer d'utiliser des prompts système pour isoler les informations clés et le contexte des requêtes utilisateur. Vous pouvez mettre l'accent sur les instructions clés dans le tour User, puis réinsister sur ces instructions en pré-remplissant le tour Assistant.

    • Utiliser le post-traitement : Filtrez les sorties de Claude pour détecter les mots-clés qui pourraient indiquer une fuite. Les techniques incluent l'utilisation d'expressions régulières, le filtrage par mots-clés ou d'autres méthodes de traitement de texte.
      Vous pouvez également utiliser un LLM avec prompt pour filtrer les sorties pour des fuites plus nuancées.
    • Éviter les détails propriétaires inutiles : Si Claude n'en a pas besoin pour effectuer la tâche, ne les incluez pas. Le contenu superflu distrait Claude des instructions "pas de fuite".
    • Audits réguliers : Examinez périodiquement vos prompts et les sorties de Claude pour détecter d'éventuelles fuites.

    Rappelez-vous que l'objectif n'est pas seulement d'empêcher les fuites mais aussi de maintenir les performances de Claude. Une prévention des fuites trop complexe peut dégrader les résultats. L'équilibre est essentiel.

    • Avant d'essayer de réduire la fuite de prompt
    • Stratégies pour réduire la fuite de prompt