Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de Lançamento
    Search...
    ⌘K

    Primeiros passos

    introget-started

    Modelos e preços

    overviewchoosing-a-modelwhats-new-claude-4-5migrating-to-claude-4model-deprecationspricing

    Criar com Claude

    overviewworking-with-messagescontext-windowsclaude-4-best-practices

    Capacidades

    prompt-cachingcontext-editingextended-thinkingstreamingbatch-processingcitationsmultilingual-supporttoken-countingembeddingsvisionpdf-supportfilessearch-resultsclaude-for-sheets

    Ferramentas

    overviewimplement-tool-usetoken-efficient-tool-usefine-grained-tool-streamingbash-toolcode-execution-toolcomputer-use-tooltext-editor-toolweb-fetch-toolweb-search-toolmemory-tool

    Habilidades do Agente

    overviewquickstartbest-practicesskills-guide

    SDK do Agente

    overviewtypescriptpython

    Guias

    streaming-vs-single-modepermissionssessionshostingmodifying-system-promptsmcpcustom-toolssubagentsslash-commandsskillscost-trackingtodo-trackingplugins

    MCP na API

    mcp-connectorremote-mcp-servers

    Claude em plataformas de terceiros

    claude-on-amazon-bedrockclaude-on-vertex-ai

    Engenharia de prompts

    overviewprompt-generatorprompt-templates-and-variablesprompt-improverbe-clear-and-directmultishot-promptingchain-of-thoughtuse-xml-tagssystem-promptsprefill-claudes-responsechain-promptslong-context-tipsextended-thinking-tips

    Testar e avaliar

    define-successdevelop-testseval-toolreduce-latency

    Fortalecer proteções

    reduce-hallucinationsincrease-consistencymitigate-jailbreakshandle-streaming-refusalsreduce-prompt-leakkeep-claude-in-character

    Administração e monitoramento

    administration-apiusage-cost-apiclaude-code-analytics-api
    Console
    Fortalecer proteções

    Reduzir alucinações

    Mesmo os modelos de linguagem mais avançados, como o Claude, podem às vezes gerar texto que é factualmente incorreto ou inconsistente com o contexto fornecido. Este fenômeno, conhecido como "alucinação", pode comprometer a confiabilidade das suas soluções baseadas em IA. Este guia explorará técnicas para minimizar alucinações e garantir que as saídas do Claude sejam precisas e confiáveis.

    Estratégias básicas de minimização de alucinações

    • Permita que o Claude diga "Eu não sei": Dê explicitamente ao Claude permissão para admitir incerteza. Esta técnica simples pode reduzir drasticamente informações falsas.

    • Use citações diretas para fundamentação factual: Para tarefas envolvendo documentos longos (>20K tokens), peça ao Claude para extrair citações palavra por palavra primeiro antes de realizar sua tarefa. Isso fundamenta suas respostas no texto real, reduzindo alucinações.

    • Verificar com citações: Torne a resposta do Claude auditável fazendo-o citar trechos e fontes para cada uma de suas afirmações. Você também pode fazer o Claude verificar cada afirmação encontrando uma citação de suporte depois de gerar uma resposta. Se não conseguir encontrar uma citação, deve retratar a afirmação.


    Técnicas avançadas

    • Verificação da cadeia de pensamento: Peça ao Claude para explicar seu raciocínio passo a passo antes de dar uma resposta final. Isso pode revelar lógica ou suposições defeituosas.

    • Verificação Best-of-N: Execute o Claude através do mesmo prompt várias vezes e compare as saídas. Inconsistências entre as saídas podem indicar alucinações.

    • Refinamento iterativo: Use as saídas do Claude como entradas para prompts de acompanhamento, pedindo-lhe para verificar ou expandir declarações anteriores. Isso pode detectar e corrigir inconsistências.

    • Restrição de conhecimento externo: Instrua explicitamente o Claude a usar apenas informações de documentos fornecidos e não seu conhecimento geral.

    Lembre-se, embora essas técnicas reduzam significativamente as alucinações, elas não as eliminam completamente. Sempre valide informações críticas, especialmente para decisões de alto risco.
    • Estratégias básicas de minimização de alucinações
    • Técnicas avançadas
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC