Loading...
    • Guía del Desarrollador
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K

    Primeros pasos

    Introducción a ClaudeInicio rápido

    Modelos y precios

    Descripción general de modelosElegir un modeloNovedades en Claude 4.5Migración a Claude 4.5Deprecaciones de modelosPrecios

    Crear con Claude

    Descripción general de característicasTrabajar con la API de MessagesVentanas de contextoMejores prácticas de prompting

    Capacidades

    Almacenamiento en caché de promptsEdición de contextoPensamiento extendidoTransmisión de MensajesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte para PDFAPI de ArchivosResultados de búsquedaComplemento de Google Sheets

    Herramientas

    Descripción generalCómo implementar el uso de herramientasUso de herramientas eficiente en tokensStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de obtención webHerramienta de búsqueda webHerramienta de memoria

    Habilidades del Agente

    Habilidades del AgenteComenzar con Agent Skills en la APIMejores prácticas para la creación de SkillsUso de Agent Skills con la API

    SDK de Agente

    Descripción general del Agent SDKReferencia del SDK del Agente - TypeScriptReferencia del SDK de Agent - Python

    Guías

    Entrada de StreamingManejo de PermisosGestión de SesionesAlojamiento del Agent SDKModificación de prompts del sistemaMCP en el SDKHerramientas PersonalizadasSubagentes en el SDKComandos Slash en el SDKHabilidades de Agente en el SDKSeguimiento de Costos y UsoListas de TareasPlugins en el SDK

    MCP en la API

    Conector MCPServidores MCP remotos

    Claude en plataformas de terceros

    Amazon BedrockVertex AI

    Ingeniería de prompts

    ResumenGenerador de promptsUsar plantillas de promptsMejorador de promptsSé claro y directoUsar ejemplos (prompting multishot)Deja que Claude piense (CoT)Usar etiquetas XMLDarle un rol a Claude (avisos del sistema)Prefill de la respuesta de ClaudeEncadena prompts complejosConsejos para contexto largoConsejos de pensamiento extendido

    Probar y evaluar

    Definir criterios de éxitoDesarrollar casos de pruebaUsando la Herramienta de EvaluaciónReducir la latencia

    Fortalecer protecciones

    Reducir las alucinacionesAumentar la consistencia de la salidaMitigar jailbreakshandle-streaming-refusalsReducir la filtración de promptsMantener a Claude en personaje

    Administración y monitoreo

    Descripción general de la API de administraciónAPI de Uso y CostoAPI de Análisis de Claude Code
    Console
    Probar y evaluar

    Usando la Herramienta de Evaluación

    La Consola de Claude cuenta con una herramienta de Evaluación que te permite probar tus prompts bajo varios escenarios.

    Accediendo a la Función de Evaluación

    Para comenzar con la herramienta de Evaluación:

    1. Abre la Consola de Claude y navega al editor de prompts.
    2. Después de componer tu prompt, busca la pestaña 'Evaluate' en la parte superior de la pantalla.

    Accediendo a la Función de Evaluación

    Asegúrate de que tu prompt incluya al menos 1-2 variables dinámicas usando la sintaxis de llaves dobles: {{variable}}. Esto es requerido para crear conjuntos de prueba de evaluación.

    Generando Prompts

    La Consola ofrece un generador de prompts integrado impulsado por Claude Opus 4.1:

    1. 1

      Haz clic en 'Generate Prompt'

      Hacer clic en la herramienta auxiliar 'Generate Prompt' abrirá un modal que te permite ingresar la información de tu tarea.

    2. 2

      Describe tu tarea

      Describe tu tarea deseada (por ejemplo, "Clasificar solicitudes de soporte al cliente entrantes") con tanto o tan poco detalle como desees. Mientras más contexto incluyas, más puede Claude adaptar su prompt generado a tus necesidades específicas.

    3. 3

      Genera tu prompt

      Hacer clic en el botón naranja 'Generate Prompt' en la parte inferior hará que Claude genere un prompt de alta calidad para ti. Luego puedes mejorar aún más esos prompts usando la pantalla de Evaluación en la Consola.

    Esta función hace más fácil crear prompts con la sintaxis de variables apropiada para la evaluación.

    Generador de Prompts

    Creando Casos de Prueba

    Cuando accedes a la pantalla de Evaluación, tienes varias opciones para crear casos de prueba:

    1. Haz clic en el botón '+ Add Row' en la parte inferior izquierda para agregar manualmente un caso.
    2. Usa la función 'Generate Test Case' para que Claude genere automáticamente casos de prueba para ti.
    3. Importa casos de prueba desde un archivo CSV.

    Para usar la función 'Generate Test Case':

    1. 1

      Haz clic en 'Generate Test Case'

      Claude generará casos de prueba para ti, una fila a la vez por cada vez que hagas clic en el botón.

    2. 2

      Edita la lógica de generación (opcional)

      También puedes editar la lógica de generación de casos de prueba haciendo clic en la flecha desplegable a la derecha del botón 'Generate Test Case', luego en 'Show generation logic' en la parte superior de la ventana de Variables que aparece. Es posible que tengas que hacer clic en `Generate' en la parte superior derecha de esta ventana para poblar la lógica de generación inicial.

      Editar esto te permite personalizar y ajustar finamente los casos de prueba que Claude genera con mayor precisión y especificidad.

    Aquí hay un ejemplo de una pantalla de Evaluación poblada con varios casos de prueba:

    Pantalla de Evaluación Poblada

    Si actualizas tu texto de prompt original, puedes volver a ejecutar toda la suite de evaluación contra el nuevo prompt para ver cómo los cambios afectan el rendimiento en todos los casos de prueba.

    Consejos para una Evaluación Efectiva

    Usa la herramienta auxiliar 'Generate a prompt' en la Consola para crear rápidamente prompts con la sintaxis de variables apropiada para la evaluación.

    Entendiendo y comparando resultados

    La herramienta de Evaluación ofrece varias funciones para ayudarte a refinar tus prompts:

    1. Comparación lado a lado: Compara las salidas de dos o más prompts para ver rápidamente el impacto de tus cambios.
    2. Calificación de calidad: Califica la calidad de respuesta en una escala de 5 puntos para rastrear mejoras en la calidad de respuesta por prompt.
    3. Versionado de prompts: Crea nuevas versiones de tu prompt y vuelve a ejecutar la suite de pruebas para iterar rápidamente y mejorar resultados.

    Al revisar resultados a través de casos de prueba y comparar diferentes versiones de prompts, puedes detectar patrones y hacer ajustes informados a tu prompt de manera más eficiente.

    ¡Comienza a evaluar tus prompts hoy para construir aplicaciones de IA más robustas con Claude!

    • Accediendo a la Función de Evaluación
    • Generando Prompts
    • Creando Casos de Prueba
    • Consejos para una Evaluación Efectiva
    • Entendiendo y comparando resultados
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC