Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de lançamento
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Modelos e preços
    Visão geral dos modelosEscolhendo um modeloNovidades no Claude 4.5Migrando para Claude 4.5Descontinuação de modelosPreços
    Construir com Claude
    Visão geral de recursosUsando a API MessagesJanelas de contextoMelhores práticas de prompting
    Capacidades
    Cache de promptEdição de contextoPensamento estendidoEsforçoStreaming de mensagensProcessamento em loteCitaçõesSuporte multilíngueContagem de tokensEmbeddingsVisãoSuporte a PDFAPI de arquivosResultados de buscaSaídas estruturadas
    Ferramentas
    Visão geralComo implementar o uso de ferramentasStreaming de ferramentas granularFerramenta BashFerramenta de execução de códigoChamada de ferramenta programáticaFerramenta de uso do computadorFerramenta de editor de textoFerramenta de busca na webFerramenta de pesquisa na webFerramenta de memóriaFerramenta de busca de ferramentas
    Habilidades do agente
    Visão geralInício rápidoMelhores práticasUsando habilidades com a API
    SDK do agente
    Visão geralInício rápidoSDK TypeScriptTypeScript V2 (preview)SDK PythonGuia de migração
    MCP na API
    Conector MCPServidores MCP remotos
    Claude em plataformas de terceiros
    Amazon BedrockMicrosoft FoundryVertex AI
    Engenharia de prompts
    Visão geralGerador de promptsUsar modelos de promptsMelhorador de promptsSeja claro e diretoUse exemplos (prompting multishot)Deixe Claude pensar (CoT)Use tags XMLDê um papel ao Claude (prompts do sistema)Preencha a resposta do ClaudeEncadeie prompts complexosDicas de contexto longoDicas de pensamento estendido
    Testar e avaliar
    Definir critérios de sucessoDesenvolver casos de testeUsando a ferramenta de avaliaçãoReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksRecusas de streamingReduzir vazamento de promptManter Claude em personagem
    Administração e monitoramento
    Visão geral da API de administraçãoAPI de uso e custoAPI de análise de código Claude
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Fortalecer proteções

    Reduzir alucinações

    Mesmo os modelos de linguagem mais avançados, como o Claude, podem às vezes gerar texto que é factualmente incorreto ou inconsistente com o contexto fornecido. Este fenômeno, conhecido como "alucinação", pode comprometer a confiabilidade das suas soluções baseadas em IA. Este guia explorará técnicas para minimizar alucinações e garantir que as saídas do Claude sejam precisas e confiáveis.

    Estratégias básicas de minimização de alucinações

    • Permita que o Claude diga "Eu não sei": Dê explicitamente ao Claude permissão para admitir incerteza. Esta técnica simples pode reduzir drasticamente informações falsas.

    • Use citações diretas para fundamentação factual: Para tarefas envolvendo documentos longos (>20K tokens), peça ao Claude para extrair citações palavra por palavra primeiro antes de realizar sua tarefa. Isso fundamenta suas respostas no texto real, reduzindo alucinações.

    • Verificar com citações: Torne a resposta do Claude auditável fazendo-o citar trechos e fontes para cada uma de suas afirmações. Você também pode fazer o Claude verificar cada afirmação encontrando uma citação de suporte depois de gerar uma resposta. Se não conseguir encontrar uma citação, deve retratar a afirmação.


    Técnicas avançadas

    • Verificação da cadeia de pensamento: Peça ao Claude para explicar seu raciocínio passo a passo antes de dar uma resposta final. Isso pode revelar lógica ou suposições defeituosas.

    • Verificação Best-of-N: Execute o Claude através do mesmo prompt várias vezes e compare as saídas. Inconsistências entre as saídas podem indicar alucinações.

    • Refinamento iterativo: Use as saídas do Claude como entradas para prompts de acompanhamento, pedindo-lhe para verificar ou expandir declarações anteriores. Isso pode detectar e corrigir inconsistências.

    • Restrição de conhecimento externo: Instrua explicitamente o Claude a usar apenas informações de documentos fornecidos e não seu conhecimento geral.

    Lembre-se, embora essas técnicas reduzam significativamente as alucinações, elas não as eliminam completamente. Sempre valide informações críticas, especialmente para decisões de alto risco.
    • Estratégias básicas de minimização de alucinações
    • Técnicas avançadas