Loading...
    • Construir
    • Admin
    • Modelos e preços
    • SDKs do cliente
    • Referência da API
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Construindo com Claude
    Visão geral dos recursosUsando a Messages APIHabilidade Claude APITratando motivos de parada
    Capacidades do modelo
    Extended thinkingAdaptive thinkingEsforçoOrçamentos de tarefas (beta)Modo rápido (beta: visualização de pesquisa)Saídas estruturadasCitaçõesStreaming de mensagensProcessamento em loteResultados de pesquisaRecusas em streamingSuporte multilíngueEmbeddings
    Ferramentas
    Visão geralComo o uso de ferramentas funcionaFerramenta de pesquisa na webFerramenta de busca na webFerramenta de execução de códigoFerramenta de consultorFerramenta de memóriaFerramenta BashFerramenta de uso de computadorFerramenta de editor de texto
    Infraestrutura de ferramentas
    Referência de ferramentasPesquisa de ferramentasChamada de ferramentas programáticaStreaming de ferramentas granular
    Gerenciamento de contexto
    Janelas de contextoCompactaçãoEdição de contextoCache de promptContagem de tokens
    Trabalhando com arquivos
    Files APISuporte a PDFImagens e visão
    Habilidades
    Visão geralInício rápidoMelhores práticasHabilidades para empresasHabilidades na API
    MCP
    Servidores MCP remotosConector MCP
    Engenharia de prompt
    Visão geralMelhores práticas de promptFerramentas de prompt do Console
    Testar e avaliar
    Definir sucesso e construir avaliaçõesUsando a ferramenta de avaliação no ConsoleReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksReduzir vazamento de prompt
    Recursos
    Glossário
    Notas de lançamento
    Claude Platform
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Testar e avaliar

    Usando a Ferramenta de Avaliação

    O Claude Console possui uma Ferramenta de Avaliação que permite testar seus prompts em vários cenários.

    Acessando o Recurso de Avaliação

    Para começar com a Ferramenta de Avaliação:

    1. Abra o Claude Console e navegue até o editor de prompts.
    2. Após compor seu prompt, procure pela aba 'Evaluate' no topo da tela.

    Acessando o Recurso de Avaliação

    Certifique-se de que seu prompt inclua pelo menos 1-2 variáveis dinâmicas usando a sintaxe de chaves duplas: {{variable}}. Isso é necessário para criar conjuntos de testes de avaliação.

    Gerando Prompts

    O Console oferece um gerador de prompts integrado alimentado por Claude Opus 4.1:

    1. 1

      Clique em 'Generate Prompt'

      Clicar na ferramenta auxiliar 'Generate Prompt' abrirá uma janela modal que permite inserir as informações de sua tarefa.

    2. 2

      Descreva sua tarefa

      Descreva sua tarefa desejada (por exemplo, "Triagem de solicitações de suporte ao cliente recebidas") com o máximo ou mínimo de detalhes que desejar. Quanto mais contexto você incluir, mais Claude poderá personalizar seu prompt gerado para suas necessidades específicas.

    3. 3

      Gere seu prompt

      Clicar no botão laranja 'Generate Prompt' na parte inferior fará com que Claude gere um prompt de alta qualidade para você. Você pode então melhorar ainda mais esses prompts usando a tela de Avaliação no Console.

    Este recurso facilita a criação de prompts com a sintaxe de variável apropriada para avaliação.

    Gerador de Prompts

    Criando Casos de Teste

    Quando você acessa a tela de Avaliação, tem várias opções para criar casos de teste:

    1. Clique no botão '+ Add Row' na parte inferior esquerda para adicionar manualmente um caso.
    2. Use o recurso 'Generate Test Case' para que Claude gere automaticamente casos de teste para você.
    3. Importe casos de teste de um arquivo CSV.

    Para usar o recurso 'Generate Test Case':

    1. 1

      Clique em 'Generate Test Case'

      Claude gerará casos de teste para você, uma linha por vez cada vez que você clicar no botão.

    2. 2

      Editar lógica de geração (opcional)

      Você também pode editar a lógica de geração de casos de teste clicando na seta suspensa à direita do botão 'Generate Test Case' e depois em 'Show generation logic' no topo da janela Variáveis que aparece. Você pode precisar clicar em `Generate' no canto superior direito desta janela para preencher a lógica de geração inicial.

      Editar isso permite que você personalize e ajuste os casos de teste que Claude gera com maior precisão e especificidade.

    Aqui está um exemplo de uma tela de Avaliação preenchida com vários casos de teste:

    Tela de Avaliação Preenchida

    Se você atualizar o texto do seu prompt original, pode executar novamente toda a suíte de avaliação contra o novo prompt para ver como as alterações afetam o desempenho em todos os casos de teste.

    Dicas para Avaliação Eficaz

    Use a ferramenta auxiliar 'Generate a prompt' no Console para criar rapidamente prompts com a sintaxe de variável apropriada para avaliação.

    Compreendendo e comparando resultados

    A Ferramenta de Avaliação oferece vários recursos para ajudá-lo a refinar seus prompts:

    1. Comparação lado a lado: Compare as saídas de dois ou mais prompts para ver rapidamente o impacto de suas alterações.
    2. Classificação de qualidade: Classifique a qualidade da resposta em uma escala de 5 pontos para rastrear melhorias na qualidade da resposta por prompt.
    3. Versionamento de prompt: Crie novas versões do seu prompt e execute novamente a suíte de testes para iterar rapidamente e melhorar os resultados.

    Ao revisar resultados em casos de teste e comparar diferentes versões de prompt, você pode identificar padrões e fazer ajustes informados ao seu prompt de forma mais eficiente.

    Comece a avaliar seus prompts hoje para construir aplicações de IA mais robustas com Claude!

    Was this page helpful?

    • Acessando o Recurso de Avaliação
    • Gerando Prompts
    • Criando Casos de Teste
    • Dicas para Avaliação Eficaz
    • Compreendendo e comparando resultados