Loading...
    • Guida per sviluppatori
    • Riferimento API
    • MCP
    • Risorse
    • Note sulla versione
    Search...
    ⌘K
    Primi passi
    Introduzione a ClaudeAvvio rapido
    Modelli e prezzi
    Panoramica dei modelliScelta di un modelloNovità in Claude 4.5Migrazione a Claude 4.5Deprecazione dei modelliPrezzi
    Crea con Claude
    Panoramica delle funzioniUtilizzo dell'API MessagesFinestre di contestoBest practice per i prompt
    Capacità
    Prompt cachingModifica del contestoExtended thinkingSforzoStreaming dei messaggiElaborazione batchCitazioniSupporto multilingueConteggio dei tokenEmbeddingsVisioneSupporto PDFAPI FilesRisultati di ricercaOutput strutturati
    Strumenti
    PanoramicaCome implementare l'uso degli strumentiStreaming granulare degli strumentiStrumento BashStrumento di esecuzione del codiceChiamata programmatica degli strumentiStrumento Computer useStrumento Editor di testoStrumento Web fetchStrumento Web searchStrumento MemoryStrumento Tool search
    Agent Skills
    PanoramicaAvvio rapidoBest practiceUtilizzo di Skills con l'API
    Agent SDK
    PanoramicaAvvio rapidoTypeScript SDKTypeScript V2 (anteprima)Python SDKGuida alla migrazione
    MCP nell'API
    Connettore MCPServer MCP remoti
    Claude su piattaforme di terze parti
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt engineering
    PanoramicaGeneratore di promptUsa modelli di promptMiglioratore di promptSii chiaro e direttoUsa esempi (multishot prompting)Lascia pensare Claude (CoT)Usa tag XMLDai a Claude un ruolo (prompt di sistema)Precompila la risposta di ClaudeConcatena prompt complessiSuggerimenti per il contesto lungoSuggerimenti per extended thinking
    Test e valutazione
    Definisci criteri di successoSviluppa casi di testUtilizzo dello strumento di valutazioneRiduzione della latenza
    Rafforza i guardrail
    Riduci le allucinazioniAumenta la coerenza dell'outputMitigare i jailbreakStreaming dei rifiutiRiduci la perdita di promptMantieni Claude nel personaggio
    Amministrazione e monitoraggio
    Panoramica dell'Admin APIAPI di utilizzo e costiAPI Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Rafforza i guardrail

    Ridurre la fuga di prompt

    Le fughe di prompt possono esporre informazioni sensibili che ci si aspetta siano "nascoste" nel prompt. Sebbene nessun metodo sia infallibile, le strategie seguenti possono ridurre significativamente il rischio.

    Prima di provare a ridurre la fuga di prompt

    Raccomandiamo di utilizzare strategie di prompt engineering resistenti alle fughe solo quando assolutamente necessario. I tentativi di rendere il prompt a prova di fuga possono aggiungere complessità che potrebbe degradare le prestazioni in altre parti del compito a causa dell'aumento della complessità del compito complessivo del LLM.

    Se decidi di implementare tecniche resistenti alle fughe, assicurati di testare accuratamente i tuoi prompt per garantire che la complessità aggiunta non impatti negativamente sulle prestazioni del modello o sulla qualità dei suoi output.

    Prova prima le tecniche di monitoraggio, come lo screening degli output e il post-processing, per cercare di individuare i casi di fuga di prompt.

    Strategie per ridurre la fuga di prompt

    • Separare il contesto dalle query: Puoi provare a utilizzare prompt di sistema per isolare le informazioni chiave e il contesto dalle query degli utenti. Puoi enfatizzare le istruzioni chiave nel turno User, quindi rienfatizzare queste istruzioni precompilando il turno Assistant.

    • Utilizzare il post-processing: Filtra gli output di Claude per parole chiave che potrebbero indicare una fuga. Le tecniche includono l'uso di espressioni regolari, filtri per parole chiave o altri metodi di elaborazione del testo.
      Puoi anche utilizzare un LLM con prompt per filtrare gli output per fughe più sfumate.
    • Evitare dettagli proprietari non necessari: Se Claude non ne ha bisogno per eseguire il compito, non includerli. I contenuti extra distraggono Claude dal concentrarsi sulle istruzioni "no fuga".
    • Audit regolari: Rivedi periodicamente i tuoi prompt e gli output di Claude per potenziali fughe.

    Ricorda, l'obiettivo non è solo prevenire le fughe ma mantenere le prestazioni di Claude. Una prevenzione delle fughe eccessivamente complessa può degradare i risultati. L'equilibrio è fondamentale.

    • Prima di provare a ridurre la fuga di prompt
    • Strategie per ridurre la fuga di prompt