Loading...
    • Guía para desarrolladores
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K
    Primeros pasos
    Introducción a ClaudeInicio rápido
    Modelos y precios
    Descripción general de modelosElegir un modeloNovedades en Claude 4.5Migración a Claude 4.5Deprecación de modelosPrecios
    Construir con Claude
    Descripción general de característicasUsar la API de MessagesVentanas de contextoMejores prácticas de prompting
    Capacidades
    Almacenamiento en caché de promptsEdición de contextoPensamiento extendidoEsfuerzoStreaming de MessagesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte de PDFAPI de FilesResultados de búsquedaSalidas estructuradas
    Herramientas
    Descripción generalCómo implementar el uso de herramientasStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoLlamada de herramientas programáticaHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de búsqueda webHerramienta de búsqueda webHerramienta de memoriaHerramienta de búsqueda de herramientas
    Agent Skills
    Descripción generalInicio rápidoMejores prácticasUsar Skills con la API
    Agent SDK
    Descripción generalInicio rápidoSDK de TypeScriptTypeScript V2 (vista previa)SDK de PythonGuía de migración
    MCP en la API
    Conector MCPServidores MCP remotos
    Claude en plataformas de terceros
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingeniería de prompts
    Descripción generalGenerador de promptsUsar plantillas de promptsMejorador de promptsSer claro y directoUsar ejemplos (prompting multishot)Dejar que Claude piense (CoT)Usar etiquetas XMLDar un rol a Claude (prompts del sistema)Rellenar la respuesta de ClaudeEncadenar prompts complejosConsejos de contexto largoConsejos de pensamiento extendido
    Probar y evaluar
    Definir criterios de éxitoDesarrollar casos de pruebaUsar la herramienta de evaluaciónReducir latencia
    Fortalecer protecciones
    Reducir alucinacionesAumentar consistencia de salidaMitigar ataques de jailbreakRechazos de streamingReducir fuga de promptsMantener a Claude en personaje
    Administración y monitoreo
    Descripción general de Admin APIAPI de uso y costoAPI de Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Fortalecer protecciones

    Reducir la filtración de prompts

    Las filtraciones de prompts pueden exponer información sensible que esperas que esté "oculta" en tu prompt. Si bien ningún método es infalible, las estrategias a continuación pueden reducir significativamente el riesgo.

    Antes de intentar reducir la filtración de prompts

    Recomendamos usar estrategias de ingeniería de prompts resistentes a filtraciones solo cuando sea absolutamente necesario. Los intentos de hacer tu prompt a prueba de filtraciones pueden agregar complejidad que podría degradar el rendimiento en otras partes de la tarea debido al aumento de la complejidad de la tarea general del LLM.

    Si decides implementar técnicas resistentes a filtraciones, asegúrate de probar tus prompts exhaustivamente para garantizar que la complejidad adicional no impacte negativamente el rendimiento del modelo o la calidad de sus resultados.

    Intenta primero técnicas de monitoreo, como el filtrado de salida y el post-procesamiento, para tratar de detectar casos de filtración de prompts.

    Estrategias para reducir la filtración de prompts

    • Separar el contexto de las consultas: Puedes intentar usar prompts de sistema para aislar información y contexto clave de las consultas del usuario. Puedes enfatizar instrucciones clave en el turno del User, luego reenfatizar esas instrucciones prerellenando el turno del Assistant.

    • Usar post-procesamiento: Filtra las salidas de Claude en busca de palabras clave que puedan indicar una filtración. Las técnicas incluyen el uso de expresiones regulares, filtrado de palabras clave u otros métodos de procesamiento de texto.
      También puedes usar un LLM con prompts para filtrar salidas en busca de filtraciones más matizadas.
    • Evitar detalles propietarios innecesarios: Si Claude no lo necesita para realizar la tarea, no lo incluyas. El contenido extra distrae a Claude de enfocarse en las instrucciones de "no filtración".
    • Auditorías regulares: Revisa periódicamente tus prompts y las salidas de Claude en busca de posibles filtraciones.

    Recuerda, el objetivo no es solo prevenir filtraciones sino mantener el rendimiento de Claude. La prevención de filtraciones excesivamente compleja puede degradar los resultados. El equilibrio es clave.

    • Antes de intentar reducir la filtración de prompts
    • Estrategias para reducir la filtración de prompts