Loading...
    • Construir
    • Admin
    • Modelos e preços
    • SDKs de cliente
    • Referência da API
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Construindo com Claude
    Visão geral dos recursosUsando a API de MensagensTratando razões de parada
    Capacidades do modelo
    Pensamento estendidoPensamento adaptativoEsforçoModo rápido (beta: prévia de pesquisa)Saídas estruturadasCitaçõesMensagens em streamingProcessamento em loteResultados de pesquisaRecusas em streamingSuporte multilíngueEmbeddings
    Ferramentas
    Visão geralComo o uso de ferramentas funcionaFerramenta de busca na webFerramenta de busca webFerramenta de execução de códigoFerramenta de memóriaFerramenta BashFerramenta de uso do computadorFerramenta de edição de texto
    Infraestrutura de ferramentas
    Busca de ferramentasChamada programática de ferramentasStreaming refinado de ferramentas
    Gerenciamento de contexto
    Janelas de contextoCompactaçãoEdição de contextoCache de promptContagem de tokens
    Trabalhando com arquivos
    Files APISuporte a PDFImagens e visão
    Skills
    Visão geralInício rápidoMelhores práticasSkills para empresasSkills na API
    MCP
    Servidores MCP remotosConector MCP
    Engenharia de prompt
    Visão geralMelhores práticas de promptingFerramentas de prompting no Console
    Testar e avaliar
    Definir sucesso e criar avaliaçõesUsando a Ferramenta de Avaliação no ConsoleReduzindo latência
    Fortalecer guardrails
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksReduzir vazamento de prompt
    Recursos
    Glossário
    Notas de versão
    Claude Platform
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Fortalecer guardrails

    Reduzir vazamento de prompt

    Estratégias para reduzir o risco de vazamento de prompt e exposição de informações sensíveis

    Vazamentos de prompt podem expor informações sensíveis que você espera manter "ocultas" em seu prompt. Embora nenhum método seja à prova de falhas, as estratégias abaixo podem reduzir significativamente o risco.

    Antes de tentar reduzir vazamento de prompt

    Recomendamos usar estratégias de engenharia de prompt resistentes a vazamentos apenas quando absolutamente necessário. As tentativas de tornar seu prompt à prova de vazamentos podem adicionar complexidade que pode degradar o desempenho em outras partes da tarefa devido ao aumento da complexidade da tarefa geral do LLM.

    Se você decidir implementar técnicas resistentes a vazamentos, certifique-se de testar seus prompts completamente para garantir que a complexidade adicionada não impacte negativamente o desempenho do modelo ou a qualidade de suas saídas.

    Tente primeiro técnicas de monitoramento, como triagem de saída e pós-processamento, para tentar detectar instâncias de vazamento de prompt.

    Estratégias para reduzir vazamento de prompt

    • Separe contexto de consultas: Você pode tentar usar prompts de sistema para isolar informações-chave e contexto de consultas de usuários. Você pode enfatizar instruções-chave na volta do User, depois reenfatizar essas instruções preenchendo previamente a volta do Assistant. (Nota: o preenchimento prévio está descontinuado e não é suportado no Claude Opus 4.6 e Sonnet 4.5.)

    • Use pós-processamento: Filtre as saídas do Claude para palavras-chave que possam indicar um vazamento. As técnicas incluem usar expressões regulares, filtragem de palavras-chave ou outros métodos de processamento de texto.
      Você também pode usar um LLM solicitado para filtrar saídas para vazamentos mais nuançados.
    • Evite detalhes proprietários desnecessários: Se Claude não precisar disso para executar a tarefa, não o inclua. Conteúdo extra distrai Claude de se concentrar em instruções de "sem vazamento".
    • Auditorias regulares: Revise periodicamente seus prompts e as saídas do Claude para possíveis vazamentos.

    Lembre-se, o objetivo não é apenas prevenir vazamentos, mas manter o desempenho do Claude. Prevenção de vazamento excessivamente complexa pode degradar os resultados. O equilíbrio é fundamental.

    Was this page helpful?

    • Antes de tentar reduzir vazamento de prompt
    • Estratégias para reduzir vazamento de prompt