Loading...
    • Guía para desarrolladores
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K
    Primeros pasos
    Introducción a ClaudeInicio rápido
    Modelos y precios
    Descripción general de modelosElegir un modeloNovedades en Claude 4.5Migración a Claude 4.5Deprecación de modelosPrecios
    Construir con Claude
    Descripción general de característicasUsar la API de MessagesVentanas de contextoMejores prácticas de prompting
    Capacidades
    Almacenamiento en caché de promptsEdición de contextoPensamiento extendidoEsfuerzoStreaming de MessagesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte de PDFAPI de FilesResultados de búsquedaSalidas estructuradas
    Herramientas
    Descripción generalCómo implementar el uso de herramientasStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoLlamada de herramientas programáticaHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de búsqueda webHerramienta de búsqueda webHerramienta de memoriaHerramienta de búsqueda de herramientas
    Agent Skills
    Descripción generalInicio rápidoMejores prácticasUsar Skills con la API
    Agent SDK
    Descripción generalInicio rápidoSDK de TypeScriptTypeScript V2 (vista previa)SDK de PythonGuía de migración
    MCP en la API
    Conector MCPServidores MCP remotos
    Claude en plataformas de terceros
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingeniería de prompts
    Descripción generalGenerador de promptsUsar plantillas de promptsMejorador de promptsSer claro y directoUsar ejemplos (prompting multishot)Dejar que Claude piense (CoT)Usar etiquetas XMLDar un rol a Claude (prompts del sistema)Rellenar la respuesta de ClaudeEncadenar prompts complejosConsejos de contexto largoConsejos de pensamiento extendido
    Probar y evaluar
    Definir criterios de éxitoDesarrollar casos de pruebaUsar la herramienta de evaluaciónReducir latencia
    Fortalecer protecciones
    Reducir alucinacionesAumentar consistencia de salidaMitigar ataques de jailbreakRechazos de streamingReducir fuga de promptsMantener a Claude en personaje
    Administración y monitoreo
    Descripción general de Admin APIAPI de uso y costoAPI de Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Fortalecer protecciones

    Reducir las alucinaciones

    Incluso los modelos de lenguaje más avanzados, como Claude, pueden a veces generar texto que es factualmente incorrecto o inconsistente con el contexto dado. Este fenómeno, conocido como "alucinación", puede socavar la fiabilidad de sus soluciones impulsadas por IA. Esta guía explorará técnicas para minimizar las alucinaciones y asegurar que las salidas de Claude sean precisas y confiables.

    Estrategias básicas para minimizar las alucinaciones

    • Permitir que Claude diga "No lo sé": Dar explícitamente permiso a Claude para admitir incertidumbre. Esta simple técnica puede reducir drásticamente la información falsa.

    • Usar citas directas para fundamentación factual: Para tareas que involucran documentos largos (>20K tokens), pide a Claude que extraiga citas textuales primero antes de realizar su tarea. Esto fundamenta sus respuestas en el texto real, reduciendo las alucinaciones.

    • Verificar con citaciones: Haz que la respuesta de Claude sea auditable haciendo que cite frases y fuentes para cada una de sus afirmaciones. También puedes hacer que Claude verifique cada afirmación encontrando una cita de respaldo después de generar una respuesta. Si no puede encontrar una cita, debe retractar la afirmación.


    Técnicas avanzadas

    • Verificación de cadena de pensamiento: Pide a Claude que explique su razonamiento paso a paso antes de dar una respuesta final. Esto puede revelar lógica o suposiciones defectuosas.

    • Verificación mejor de N: Ejecuta Claude con el mismo prompt múltiples veces y compara las salidas. Las inconsistencias entre las salidas podrían indicar alucinaciones.

    • Refinamiento iterativo: Usa las salidas de Claude como entradas para prompts de seguimiento, pidiéndole que verifique o expanda declaraciones previas. Esto puede detectar y corregir inconsistencias.

    • Restricción de conocimiento externo: Instruye explícitamente a Claude para que use solo información de los documentos proporcionados y no su conocimiento general.

    Recuerda que, si bien estas técnicas reducen significativamente las alucinaciones, no las eliminan por completo. Siempre valida la información crítica, especialmente para decisiones de alto riesgo.
    • Estrategias básicas para minimizar las alucinaciones
    • Técnicas avanzadas