Loading...
    • Guida per sviluppatori
    • Riferimento API
    • MCP
    • Risorse
    • Note sulla versione
    Search...
    ⌘K
    Primi passi
    Introduzione a ClaudeAvvio rapido
    Modelli e prezzi
    Panoramica dei modelliScelta di un modelloNovità in Claude 4.5Migrazione a Claude 4.5Deprecazione dei modelliPrezzi
    Crea con Claude
    Panoramica delle funzioniUtilizzo dell'API MessagesFinestre di contestoBest practice per i prompt
    Capacità
    Prompt cachingModifica del contestoExtended thinkingSforzoStreaming dei messaggiElaborazione batchCitazioniSupporto multilingueConteggio dei tokenEmbeddingsVisioneSupporto PDFAPI FilesRisultati di ricercaOutput strutturati
    Strumenti
    PanoramicaCome implementare l'uso degli strumentiStreaming granulare degli strumentiStrumento BashStrumento di esecuzione del codiceChiamata programmatica degli strumentiStrumento Computer useStrumento Editor di testoStrumento Web fetchStrumento Web searchStrumento MemoryStrumento Tool search
    Agent Skills
    PanoramicaAvvio rapidoBest practiceUtilizzo di Skills con l'API
    Agent SDK
    PanoramicaAvvio rapidoTypeScript SDKTypeScript V2 (anteprima)Python SDKGuida alla migrazione
    MCP nell'API
    Connettore MCPServer MCP remoti
    Claude su piattaforme di terze parti
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt engineering
    PanoramicaGeneratore di promptUsa modelli di promptMiglioratore di promptSii chiaro e direttoUsa esempi (multishot prompting)Lascia pensare Claude (CoT)Usa tag XMLDai a Claude un ruolo (prompt di sistema)Precompila la risposta di ClaudeConcatena prompt complessiSuggerimenti per il contesto lungoSuggerimenti per extended thinking
    Test e valutazione
    Definisci criteri di successoSviluppa casi di testUtilizzo dello strumento di valutazioneRiduzione della latenza
    Rafforza i guardrail
    Riduci le allucinazioniAumenta la coerenza dell'outputMitigare i jailbreakStreaming dei rifiutiRiduci la perdita di promptMantieni Claude nel personaggio
    Amministrazione e monitoraggio
    Panoramica dell'Admin APIAPI di utilizzo e costiAPI Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Rafforza i guardrail

    Ridurre le allucinazioni

    Anche i modelli linguistici più avanzati, come Claude, possono talvolta generare testo che è fattualmente errato o incoerente con il contesto dato. Questo fenomeno, noto come "allucinazione", può minare l'affidabilità delle tue soluzioni basate sull'IA. Questa guida esplorerà le tecniche per minimizzare le allucinazioni e garantire che gli output di Claude siano accurati e affidabili.

    Strategie di base per minimizzare le allucinazioni

    • Permettere a Claude di dire "Non lo so": Dai esplicitamente a Claude il permesso di ammettere l'incertezza. Questa semplice tecnica può ridurre drasticamente le informazioni false.

    • Usa citazioni dirette per fondamento fattuale: Per compiti che coinvolgono documenti lunghi (>20K token), chiedi a Claude di estrarre prima citazioni parola per parola prima di eseguire il suo compito. Questo ancora le sue risposte al testo effettivo, riducendo le allucinazioni.

    • Verifica con citazioni: Rendi la risposta di Claude verificabile facendogli citare citazioni e fonti per ciascuna delle sue affermazioni. Puoi anche far verificare a Claude ogni affermazione trovando una citazione di supporto dopo che genera una risposta. Se non riesce a trovare una citazione, deve ritirare l'affermazione.


    Tecniche avanzate

    • Verifica della catena di pensiero: Chiedi a Claude di spiegare il suo ragionamento passo dopo passo prima di dare una risposta finale. Questo può rivelare logica o supposizioni errate.

    • Verifica Best-of-N: Esegui Claude attraverso lo stesso prompt più volte e confronta gli output. Incongruenze tra gli output potrebbero indicare allucinazioni.

    • Raffinamento iterativo: Usa gli output di Claude come input per prompt di follow-up, chiedendogli di verificare o espandere le dichiarazioni precedenti. Questo può individuare e correggere incongruenze.

    • Restrizione della conoscenza esterna: Istruisci esplicitamente Claude di utilizzare solo informazioni dai documenti forniti e non la sua conoscenza generale.

    Ricorda, mentre queste tecniche riducono significativamente le allucinazioni, non le eliminano completamente. Verifica sempre le informazioni critiche, specialmente per decisioni ad alto rischio.
    • Strategie di base per minimizzare le allucinazioni
    • Tecniche avanzate