Loading...
  • Construir
  • Administración
  • Modelos y precios
  • SDKs de cliente
  • Referencia de API
Search...
⌘K
Log in
Reducir filtración de prompts
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
Construir/Reforzar salvaguardas

Reducir fuga de prompt

Estrategias para reducir el riesgo de fuga de información sensible en tus prompts

Las fugas de prompt pueden exponer información sensible que esperas que esté "oculta" en tu prompt. Aunque ningún método es infalible, las estrategias a continuación pueden reducir significativamente el riesgo.

Antes de intentar reducir la fuga de prompt

Considera usar estrategias de ingeniería de prompts resistentes a fugas solo cuando sea absolutamente necesario. Los intentos de hacer tu prompt a prueba de fugas pueden añadir complejidad que puede degradar el rendimiento en otras partes de la tarea debido al aumento de la complejidad de la tarea general del LLM.

Si decides implementar técnicas resistentes a fugas, asegúrate de probar tus prompts a fondo para garantizar que la complejidad añadida no impacte negativamente el rendimiento del modelo o la calidad de sus salidas.

Intenta primero técnicas de monitoreo, como el filtrado de salida y el post-procesamiento, para intentar detectar instancias de fuga de prompt.

Estrategias para reducir la fuga de prompt

  • Separar contexto de consultas: Puedes intentar usar prompts del sistema para aislar información clave y contexto de las consultas del usuario. Puedes enfatizar instrucciones clave en el turno del Usuario, luego reenfatizar esas instrucciones rellenando previamente el turno del Asistente. (Nota: el relleno previo no es compatible con Claude Mythos Preview, Claude Opus 4.7, Claude Opus 4.6 y Sonnet 4.6.)

  • Usar post-procesamiento: Filtra las salidas de Claude para palabras clave que podrían indicar una fuga. Las técnicas incluyen usar expresiones regulares, filtrado de palabras clave u otros métodos de procesamiento de texto.
    También puedes usar un LLM con prompt para filtrar salidas para fugas más matizadas.
  • Evitar detalles propietarios innecesarios: Si Claude no los necesita para realizar la tarea, no los incluyas. El contenido extra distrae a Claude de enfocarse en las instrucciones de "sin fuga".
  • Auditorías regulares: Revisa periódicamente tus prompts y las salidas de Claude para posibles fugas.

Recuerda, el objetivo no es solo prevenir fugas sino mantener el rendimiento de Claude. La prevención de fugas excesivamente compleja puede degradar los resultados. El equilibrio es clave.

Was this page helpful?

  • Antes de intentar reducir la fuga de prompt
  • Estrategias para reducir la fuga de prompt