Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de lançamento
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Modelos e preços
    Visão geral dos modelosEscolhendo um modeloNovidades no Claude 4.5Migrando para Claude 4.5Descontinuação de modelosPreços
    Construir com Claude
    Visão geral de recursosUsando a API MessagesJanelas de contextoMelhores práticas de prompting
    Capacidades
    Cache de promptEdição de contextoPensamento estendidoEsforçoStreaming de mensagensProcessamento em loteCitaçõesSuporte multilíngueContagem de tokensEmbeddingsVisãoSuporte a PDFAPI de arquivosResultados de buscaSaídas estruturadas
    Ferramentas
    Visão geralComo implementar o uso de ferramentasStreaming de ferramentas granularFerramenta BashFerramenta de execução de códigoChamada de ferramenta programáticaFerramenta de uso do computadorFerramenta de editor de textoFerramenta de busca na webFerramenta de pesquisa na webFerramenta de memóriaFerramenta de busca de ferramentas
    Habilidades do agente
    Visão geralInício rápidoMelhores práticasUsando habilidades com a API
    SDK do agente
    Visão geralInício rápidoSDK TypeScriptTypeScript V2 (preview)SDK PythonGuia de migração
    MCP na API
    Conector MCPServidores MCP remotos
    Claude em plataformas de terceiros
    Amazon BedrockMicrosoft FoundryVertex AI
    Engenharia de prompts
    Visão geralGerador de promptsUsar modelos de promptsMelhorador de promptsSeja claro e diretoUse exemplos (prompting multishot)Deixe Claude pensar (CoT)Use tags XMLDê um papel ao Claude (prompts do sistema)Preencha a resposta do ClaudeEncadeie prompts complexosDicas de contexto longoDicas de pensamento estendido
    Testar e avaliar
    Definir critérios de sucessoDesenvolver casos de testeUsando a ferramenta de avaliaçãoReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksRecusas de streamingReduzir vazamento de promptManter Claude em personagem
    Administração e monitoramento
    Visão geral da API de administraçãoAPI de uso e custoAPI de análise de código Claude
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Testar e avaliar

    Usando a Ferramenta de Avaliação

    O Console Claude apresenta uma ferramenta de Avaliação que permite testar seus prompts sob vários cenários.

    Acessando o Recurso de Avaliação

    Para começar com a ferramenta de Avaliação:

    1. Abra o Console Claude e navegue até o editor de prompts.
    2. Após compor seu prompt, procure pela aba 'Evaluate' no topo da tela.

    Acessando o Recurso de Avaliação

    Certifique-se de que seu prompt inclua pelo menos 1-2 variáveis dinâmicas usando a sintaxe de chaves duplas: {{variável}}. Isso é necessário para criar conjuntos de teste de avaliação.

    Gerando Prompts

    O Console oferece um gerador de prompts integrado alimentado pelo Claude Opus 4.1:

    1. 1

      Clique em 'Generate Prompt'

      Clicar na ferramenta auxiliar 'Generate Prompt' abrirá um modal que permite inserir as informações da sua tarefa.

    2. 2

      Descreva sua tarefa

      Descreva sua tarefa desejada (por exemplo, "Fazer triagem de solicitações de suporte ao cliente recebidas") com tanto ou tão pouco detalhe quanto desejar. Quanto mais contexto você incluir, mais o Claude pode adaptar seu prompt gerado às suas necessidades específicas.

    3. 3

      Gere seu prompt

      Clicar no botão laranja 'Generate Prompt' na parte inferior fará com que o Claude gere um prompt de alta qualidade para você. Você pode então melhorar ainda mais esses prompts usando a tela de Avaliação no Console.

    Este recurso facilita a criação de prompts com a sintaxe de variável apropriada para avaliação.

    Gerador de Prompts

    Criando Casos de Teste

    Quando você acessa a tela de Avaliação, tem várias opções para criar casos de teste:

    1. Clique no botão '+ Add Row' no canto inferior esquerdo para adicionar manualmente um caso.
    2. Use o recurso 'Generate Test Case' para fazer com que o Claude gere automaticamente casos de teste para você.
    3. Importe casos de teste de um arquivo CSV.

    Para usar o recurso 'Generate Test Case':

    1. 1

      Clique em 'Generate Test Case'

      O Claude gerará casos de teste para você, uma linha por vez para cada vez que você clicar no botão.

    2. 2

      Edite a lógica de geração (opcional)

      Você também pode editar a lógica de geração de casos de teste clicando na seta suspensa à direita do botão 'Generate Test Case', depois em 'Show generation logic' no topo da janela de Variáveis que aparece. Você pode ter que clicar em `Generate' no canto superior direito desta janela para popular a lógica de geração inicial.

      Editar isso permite personalizar e ajustar finamente os casos de teste que o Claude gera com maior precisão e especificidade.

    Aqui está um exemplo de uma tela de Avaliação populada com vários casos de teste:

    Tela de Avaliação Populada

    Se você atualizar o texto do seu prompt original, pode executar novamente todo o conjunto de avaliação contra o novo prompt para ver como as mudanças afetam o desempenho em todos os casos de teste.

    Dicas para Avaliação Eficaz

    Use a ferramenta auxiliar 'Generate a prompt' no Console para criar rapidamente prompts com a sintaxe de variável apropriada para avaliação.

    Entendendo e comparando resultados

    A ferramenta de Avaliação oferece vários recursos para ajudá-lo a refinar seus prompts:

    1. Comparação lado a lado: Compare as saídas de dois ou mais prompts para ver rapidamente o impacto de suas mudanças.
    2. Classificação de qualidade: Classifique a qualidade da resposta em uma escala de 5 pontos para acompanhar melhorias na qualidade da resposta por prompt.
    3. Versionamento de prompt: Crie novas versões do seu prompt e execute novamente o conjunto de testes para iterar rapidamente e melhorar os resultados.

    Ao revisar resultados em casos de teste e comparar diferentes versões de prompt, você pode identificar padrões e fazer ajustes informados ao seu prompt de forma mais eficiente.

    Comece a avaliar seus prompts hoje para construir aplicações de IA mais robustas com o Claude!

    • Acessando o Recurso de Avaliação
    • Gerando Prompts
    • Criando Casos de Teste
    • Dicas para Avaliação Eficaz
    • Entendendo e comparando resultados