Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de lançamento
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Modelos e preços
    Visão geral dos modelosEscolhendo um modeloNovidades no Claude 4.5Migrando para Claude 4.5Descontinuação de modelosPreços
    Construir com Claude
    Visão geral de recursosUsando a API MessagesJanelas de contextoMelhores práticas de prompting
    Capacidades
    Cache de promptEdição de contextoPensamento estendidoEsforçoStreaming de mensagensProcessamento em loteCitaçõesSuporte multilíngueContagem de tokensEmbeddingsVisãoSuporte a PDFAPI de arquivosResultados de buscaSaídas estruturadas
    Ferramentas
    Visão geralComo implementar o uso de ferramentasStreaming de ferramentas granularFerramenta BashFerramenta de execução de códigoChamada de ferramenta programáticaFerramenta de uso do computadorFerramenta de editor de textoFerramenta de busca na webFerramenta de pesquisa na webFerramenta de memóriaFerramenta de busca de ferramentas
    Habilidades do agente
    Visão geralInício rápidoMelhores práticasUsando habilidades com a API
    SDK do agente
    Visão geralInício rápidoSDK TypeScriptTypeScript V2 (preview)SDK PythonGuia de migração
    MCP na API
    Conector MCPServidores MCP remotos
    Claude em plataformas de terceiros
    Amazon BedrockMicrosoft FoundryVertex AI
    Engenharia de prompts
    Visão geralGerador de promptsUsar modelos de promptsMelhorador de promptsSeja claro e diretoUse exemplos (prompting multishot)Deixe Claude pensar (CoT)Use tags XMLDê um papel ao Claude (prompts do sistema)Preencha a resposta do ClaudeEncadeie prompts complexosDicas de contexto longoDicas de pensamento estendido
    Testar e avaliar
    Definir critérios de sucessoDesenvolver casos de testeUsando a ferramenta de avaliaçãoReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksRecusas de streamingReduzir vazamento de promptManter Claude em personagem
    Administração e monitoramento
    Visão geral da API de administraçãoAPI de uso e custoAPI de análise de código Claude
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Fortalecer proteções

    Reduzir vazamento de prompt

    Vazamentos de prompt podem expor informações sensíveis que você espera que estejam "ocultas" em seu prompt. Embora nenhum método seja infalível, as estratégias abaixo podem reduzir significativamente o risco.

    Antes de tentar reduzir o vazamento de prompt

    Recomendamos usar estratégias de engenharia de prompt resistentes a vazamentos apenas quando absolutamente necessário. Tentativas de tornar seu prompt à prova de vazamentos podem adicionar complexidade que pode degradar o desempenho em outras partes da tarefa devido ao aumento da complexidade da tarefa geral do LLM.

    Se você decidir implementar técnicas resistentes a vazamentos, certifique-se de testar seus prompts completamente para garantir que a complexidade adicional não impacte negativamente o desempenho do modelo ou a qualidade de suas saídas.

    Tente primeiro técnicas de monitoramento, como triagem de saída e pós-processamento, para tentar detectar instâncias de vazamento de prompt.

    Estratégias para reduzir vazamento de prompt

    • Separe o contexto das consultas: Você pode tentar usar prompts do sistema para isolar informações-chave e contexto das consultas do usuário. Você pode enfatizar instruções-chave no turno do User, depois reenfatizar essas instruções pré-preenchendo o turno do Assistant.

    • Use pós-processamento: Filtre as saídas do Claude em busca de palavras-chave que possam indicar um vazamento. As técnicas incluem o uso de expressões regulares, filtragem de palavras-chave ou outros métodos de processamento de texto.
      Você também pode usar um LLM com prompt para filtrar saídas em busca de vazamentos mais sutis.
    • Evite detalhes proprietários desnecessários: Se o Claude não precisar disso para realizar a tarefa, não inclua. Conteúdo extra distrai o Claude do foco nas instruções de "não vazar".
    • Auditorias regulares: Revise periodicamente seus prompts e as saídas do Claude em busca de possíveis vazamentos.

    Lembre-se, o objetivo não é apenas prevenir vazamentos, mas manter o desempenho do Claude. A prevenção de vazamentos excessivamente complexa pode degradar os resultados. O equilíbrio é fundamental.

    • Antes de tentar reduzir o vazamento de prompt
    • Estratégias para reduzir vazamento de prompt