Loading...
    • Guía para desarrolladores
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K
    Primeros pasos
    Introducción a ClaudeInicio rápido
    Modelos y precios
    Descripción general de modelosElegir un modeloNovedades en Claude 4.6Guía de migraciónModelos deprecadosPrecios
    Crear con Claude
    Descripción general de característicasUsar la API de MessagesManejar razones de paradaMejores prácticas de prompting
    Gestión de contexto
    Ventanas de contextoCompactaciónEdición de contexto
    Capacidades
    Almacenamiento en caché de promptsPensamiento extendidoPensamiento adaptativoEsfuerzoStreaming de MessagesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte de PDFAPI de FilesResultados de búsquedaSalidas estructuradas
    Herramientas
    Descripción generalCómo implementar el uso de herramientasStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoLlamada de herramientas programáticaHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de búsqueda webHerramienta de búsqueda webHerramienta de memoriaHerramienta de búsqueda de herramientas
    Agent Skills
    Descripción generalInicio rápidoMejores prácticasSkills para empresasUsar Skills con la API
    Agent SDK
    Descripción generalInicio rápidoSDK de TypeScriptTypeScript V2 (vista previa)SDK de PythonGuía de migración
    MCP en la API
    Conector MCPServidores MCP remotos
    Claude en plataformas de terceros
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingeniería de prompts
    Descripción generalGenerador de promptsUsar plantillas de promptsMejorador de promptsSer claro y directoUsar ejemplos (prompting multishot)Dejar que Claude piense (CoT)Usar etiquetas XMLDar a Claude un rol (prompts del sistema)Encadenar prompts complejosConsejos de contexto largoConsejos de pensamiento extendido
    Probar y evaluar
    Definir criterios de éxitoDesarrollar casos de pruebaUsar la herramienta de evaluaciónReducir latencia
    Fortalecer protecciones
    Reducir alucinacionesAumentar consistencia de salidaMitigar ataques de jailbreakRechazos de streamingReducir fuga de promptsMantener a Claude en personaje
    Administración y monitoreo
    Descripción general de Admin APIResidencia de datosEspacios de trabajoAPI de uso y costosAPI de Claude Code AnalyticsRetención de datos cero
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Fortalecer protecciones

    Reducir las alucinaciones

    Incluso los modelos de lenguaje más avanzados, como Claude, pueden a veces generar texto que es factualmente incorrecto o inconsistente con el contexto dado. Este fenómeno, conocido como "alucinación", puede socavar la fiabilidad de sus soluciones impulsadas por IA. Esta guía explorará técnicas para minimizar las alucinaciones y asegurar que las salidas de Claude sean precisas y confiables.

    Estrategias básicas para minimizar las alucinaciones

    • Permitir que Claude diga "No lo sé": Dar explícitamente permiso a Claude para admitir incertidumbre. Esta simple técnica puede reducir drásticamente la información falsa.

    • Usar citas directas para fundamentación factual: Para tareas que involucran documentos largos (>20K tokens), pide a Claude que extraiga citas textuales primero antes de realizar su tarea. Esto fundamenta sus respuestas en el texto real, reduciendo las alucinaciones.

    • Verificar con citaciones: Haz que la respuesta de Claude sea auditable haciendo que cite frases y fuentes para cada una de sus afirmaciones. También puedes hacer que Claude verifique cada afirmación encontrando una cita de respaldo después de generar una respuesta. Si no puede encontrar una cita, debe retractar la afirmación.


    Técnicas avanzadas

    • Verificación de cadena de pensamiento: Pide a Claude que explique su razonamiento paso a paso antes de dar una respuesta final. Esto puede revelar lógica o suposiciones defectuosas.

    • Verificación mejor de N: Ejecuta Claude con el mismo prompt múltiples veces y compara las salidas. Las inconsistencias entre las salidas podrían indicar alucinaciones.

    • Refinamiento iterativo: Usa las salidas de Claude como entradas para prompts de seguimiento, pidiéndole que verifique o expanda declaraciones previas. Esto puede detectar y corregir inconsistencias.

    • Restricción de conocimiento externo: Instruye explícitamente a Claude para que use solo información de los documentos proporcionados y no su conocimiento general.

    Recuerda que, si bien estas técnicas reducen significativamente las alucinaciones, no las eliminan por completo. Siempre valida la información crítica, especialmente para decisiones de alto riesgo.

    Was this page helpful?

    • Estrategias básicas para minimizar las alucinaciones
    • Técnicas avanzadas