Loading...
    • Crea
    • Admin
    • Modelli e prezzi
    • SDK client
    • Riferimento API
    Search...
    ⌘K
    Primi passi
    Introduzione a ClaudeGuida rapida
    Creare con Claude
    Panoramica delle funzioniUtilizzo dell'API MessagesCompetenza Claude APIGestione dei motivi di arresto
    Capacità del modello
    Extended thinkingAdaptive thinkingEffortBudget attività (beta)Modalità veloce (beta: anteprima ricerca)Output strutturatiCitazioniStreaming MessagesElaborazione batchRisultati di ricercaStreaming rifiutiSupporto multilingueEmbeddings
    Strumenti
    PanoramicaCome funziona l'uso degli strumentiStrumento di ricerca webStrumento di recupero webStrumento di esecuzione codiceStrumento AdvisorStrumento MemoryStrumento BashStrumento Computer useStrumento editor di testo
    Infrastruttura degli strumenti
    Riferimento strumentiRicerca strumentiChiamata programmatica degli strumentiStreaming granulare degli strumenti
    Gestione del contesto
    Finestre di contestoCompattazioneModifica del contestoPrompt cachingConteggio token
    Utilizzo dei file
    API FilesSupporto PDFImmagini e visione
    Competenze
    PanoramicaGuida rapidaBest practiceCompetenze per l'aziendaCompetenze nell'API
    MCP
    Server MCP remotiConnettore MCP
    Prompt engineering
    PanoramicaBest practice per il promptStrumenti di prompt in Console
    Test e valutazione
    Definire il successo e creare valutazioniUtilizzo dello strumento di valutazione in ConsoleRiduzione della latenza
    Rafforzare le protezioni
    Ridurre le allucinazioniAumentare la coerenza dell'outputMitigare i jailbreakRidurre la perdita di prompt
    Risorse
    Glossario
    Note sulla versione
    Claude Platform
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Rafforzare le protezioni

    Ridurre le allucinazioni

    Tecniche per minimizzare le allucinazioni nei modelli linguistici e garantire output accurati e affidabili da Claude.

    Anche i modelli linguistici più avanzati, come Claude, a volte possono generare testo che è fattualmente scorretto o incoerente con il contesto fornito. Questo fenomeno, noto come "allucinazione", può compromettere l'affidabilità delle tue soluzioni basate su IA. Questa guida esplorerà tecniche per minimizzare le allucinazioni e garantire che gli output di Claude siano accurati e affidabili.

    Strategie di base per minimizzare le allucinazioni

    • Consenti a Claude di dire "Non so": Dai esplicitamente a Claude il permesso di ammettere l'incertezza. Questa semplice tecnica può ridurre drasticamente le informazioni false.

    • Usa citazioni dirette per l'ancoraggio fattuale: Per attività che coinvolgono documenti lunghi (>20k token), chiedi a Claude di estrarre citazioni parola per parola prima di eseguire il suo compito. Questo ancora le sue risposte nel testo effettivo, riducendo le allucinazioni.

    • Verifica con citazioni: Rendi la risposta di Claude verificabile facendole citare citazioni e fonti per ciascuna delle sue affermazioni. Puoi anche fare in modo che Claude verifichi ogni affermazione trovando una citazione di supporto dopo aver generato una risposta. Se non riesce a trovare una citazione, deve ritirare l'affermazione.


    Tecniche avanzate

    • Verifica con catena di ragionamento: Chiedi a Claude di spiegare il suo ragionamento passo dopo passo prima di dare una risposta finale. Questo può rivelare logica difettosa o assunzioni errate.

    • Verifica Best-of-N: Esegui Claude attraverso lo stesso prompt più volte e confronta gli output. Le incoerenze tra gli output potrebbero indicare allucinazioni.

    • Affinamento iterativo: Usa gli output di Claude come input per prompt di follow-up, chiedendogli di verificare o espandere le affermazioni precedenti. Questo può rilevare e correggere le incoerenze.

    • Restrizione della conoscenza esterna: Istruisci esplicitamente Claude a utilizzare solo informazioni dai documenti forniti e non dalla sua conoscenza generale.

    Ricorda, mentre queste tecniche riducono significativamente le allucinazioni, non le eliminano completamente. Valida sempre le informazioni critiche, specialmente per le decisioni ad alto rischio.

    Was this page helpful?

    • Strategie di base per minimizzare le allucinazioni
    • Tecniche avanzate