Loading...
  • Construir
  • Administración
  • Modelos y precios
  • SDKs de cliente
  • Referencia de API
Search...
⌘K
Log in
Usar la herramienta de evaluación en Console
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
Construir/Probar y evaluar

Uso de la herramienta de evaluación

La Claude Console cuenta con una herramienta de evaluación que te permite probar tus prompts en varios escenarios.

Acceso a la función de evaluación

Para comenzar con la herramienta de evaluación:

  1. Abre la Claude Console y navega al editor de prompts.
  2. Después de componer tu prompt, busca la pestaña 'Evaluate' en la parte superior de la pantalla.

Acceso a la función de evaluación

Asegúrate de que tu prompt incluya al menos 1-2 variables dinámicas usando la sintaxis de llaves dobles: {{variable}}. Esto es necesario para crear conjuntos de prueba de evaluación.

Generación de Prompts

La Console ofrece un generador de prompts integrado impulsado por Claude Opus 4.1:

  1. 1

    Haz clic en 'Generate Prompt'

    Al hacer clic en la herramienta auxiliar 'Generate Prompt' se abrirá un modal que te permitirá ingresar la información de tu tarea.

  2. 2

    Describe tu tarea

    Describe tu tarea deseada (por ejemplo, "Clasificar solicitudes de soporte al cliente entrantes") con tanto o tan poco detalle como desees. Cuanto más contexto incluyas, más Claude podrá adaptar su prompt generado a tus necesidades específicas.

  3. 3

    Genera tu prompt

    Al hacer clic en el botón naranja 'Generate Prompt' en la parte inferior, Claude generará un prompt de alta calidad para ti. Luego puedes mejorar aún más esos prompts usando la pantalla de evaluación en la Console.

Esta función facilita la creación de prompts con la sintaxis de variable apropiada para la evaluación.

Generador de Prompts

Creación de casos de prueba

Cuando accedes a la pantalla de evaluación, tienes varias opciones para crear casos de prueba:

  1. Haz clic en el botón '+ Add Row' en la parte inferior izquierda para agregar manualmente un caso.
  2. Usa la función 'Generate Test Case' para que Claude genere automáticamente casos de prueba para ti.
  3. Importa casos de prueba desde un archivo CSV.

Para usar la función 'Generate Test Case':

  1. 1

    Haz clic en 'Generate Test Case'

    Claude generará casos de prueba para ti, una fila a la vez cada vez que hagas clic en el botón.

  2. 2

    Edita la lógica de generación (opcional)

    También puedes editar la lógica de generación de casos de prueba haciendo clic en la flecha desplegable a la derecha del botón 'Generate Test Case', luego en 'Show generation logic' en la parte superior de la ventana Variables que aparece. Es posible que tengas que hacer clic en `Generate' en la parte superior derecha de esta ventana para completar la lógica de generación inicial.

    Editar esto te permite personalizar y ajustar los casos de prueba que Claude genera con mayor precisión y especificidad.

Aquí hay un ejemplo de una pantalla de evaluación completada con varios casos de prueba:

Pantalla de evaluación completada

Si actualizas el texto de tu prompt original, puedes volver a ejecutar toda la suite de evaluación contra el nuevo prompt para ver cómo los cambios afectan el rendimiento en todos los casos de prueba.

Consejos para una evaluación efectiva

Usa la herramienta auxiliar 'Generate a prompt' en la Console para crear rápidamente prompts con la sintaxis de variable apropiada para la evaluación.

Comprensión y comparación de resultados

La herramienta de evaluación ofrece varias características para ayudarte a refinar tus prompts:

  1. Comparación lado a lado: Compara las salidas de dos o más prompts para ver rápidamente el impacto de tus cambios.
  2. Calificación de calidad: Califica la calidad de la respuesta en una escala de 5 puntos para rastrear mejoras en la calidad de la respuesta por prompt.
  3. Versionado de prompts: Crea nuevas versiones de tu prompt y vuelve a ejecutar la suite de prueba para iterar rápidamente y mejorar los resultados.

Al revisar los resultados en todos los casos de prueba y comparar diferentes versiones de prompts, puedes identificar patrones y hacer ajustes informados a tu prompt de manera más eficiente.

¡Comienza a evaluar tus prompts hoy para crear aplicaciones de IA más robustas con Claude!

Was this page helpful?

  • Acceso a la función de evaluación
  • Generación de Prompts
  • Creación de casos de prueba
  • Consejos para una evaluación efectiva
  • Comprensión y comparación de resultados