Loading...
    • Guida per sviluppatori
    • Riferimento API
    • MCP
    • Risorse
    • Note sulla versione
    Search...
    ⌘K
    Primi passi
    Introduzione a ClaudeAvvio rapido
    Modelli e prezzi
    Panoramica dei modelliScelta di un modelloNovità in Claude 4.5Migrazione a Claude 4.5Deprecazione dei modelliPrezzi
    Crea con Claude
    Panoramica delle funzioniUtilizzo dell'API MessagesFinestre di contestoBest practice per i prompt
    Capacità
    Prompt cachingModifica del contestoExtended thinkingSforzoStreaming dei messaggiElaborazione batchCitazioniSupporto multilingueConteggio dei tokenEmbeddingsVisioneSupporto PDFAPI FilesRisultati di ricercaOutput strutturati
    Strumenti
    PanoramicaCome implementare l'uso degli strumentiStreaming granulare degli strumentiStrumento BashStrumento di esecuzione del codiceChiamata programmatica degli strumentiStrumento Computer useStrumento Editor di testoStrumento Web fetchStrumento Web searchStrumento MemoryStrumento Tool search
    Agent Skills
    PanoramicaAvvio rapidoBest practiceUtilizzo di Skills con l'API
    Agent SDK
    PanoramicaAvvio rapidoTypeScript SDKTypeScript V2 (anteprima)Python SDKGuida alla migrazione
    MCP nell'API
    Connettore MCPServer MCP remoti
    Claude su piattaforme di terze parti
    Amazon BedrockMicrosoft FoundryVertex AI
    Prompt engineering
    PanoramicaGeneratore di promptUsa modelli di promptMiglioratore di promptSii chiaro e direttoUsa esempi (multishot prompting)Lascia pensare Claude (CoT)Usa tag XMLDai a Claude un ruolo (prompt di sistema)Precompila la risposta di ClaudeConcatena prompt complessiSuggerimenti per il contesto lungoSuggerimenti per extended thinking
    Test e valutazione
    Definisci criteri di successoSviluppa casi di testUtilizzo dello strumento di valutazioneRiduzione della latenza
    Rafforza i guardrail
    Riduci le allucinazioniAumenta la coerenza dell'outputMitigare i jailbreakStreaming dei rifiutiRiduci la perdita di promptMantieni Claude nel personaggio
    Amministrazione e monitoraggio
    Panoramica dell'Admin APIAPI di utilizzo e costiAPI Claude Code Analytics
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Test e valutazione

    Utilizzo dello Strumento di Valutazione

    La Claude Console presenta uno strumento di Valutazione che ti permette di testare i tuoi prompt in vari scenari.

    Accesso alla Funzione di Valutazione

    Per iniziare con lo strumento di Valutazione:

    1. Apri la Claude Console e naviga verso l'editor di prompt.
    2. Dopo aver composto il tuo prompt, cerca la scheda 'Evaluate' nella parte superiore dello schermo.

    Accesso alla Funzione di Valutazione

    Assicurati che il tuo prompt includa almeno 1-2 variabili dinamiche utilizzando la sintassi delle doppie parentesi graffe: {{variable}}. Questo è necessario per creare set di test di valutazione.

    Generazione di Prompt

    La Console offre un generatore di prompt integrato alimentato da Claude Opus 4.1:

    1. 1

      Clicca 'Generate Prompt'

      Cliccando sullo strumento helper 'Generate Prompt' si aprirà una finestra modale che ti permette di inserire le informazioni del tuo compito.

    2. 2

      Descrivi il tuo compito

      Descrivi il compito desiderato (ad esempio, "Smistare le richieste di supporto clienti in entrata") con tutti i dettagli che desideri o con pochi dettagli. Più contesto includi, più Claude può adattare il prompt generato alle tue esigenze specifiche.

    3. 3

      Genera il tuo prompt

      Cliccando il pulsante arancione 'Generate Prompt' in basso, Claude genererà un prompt di alta qualità per te. Puoi poi migliorare ulteriormente quei prompt utilizzando la schermata di Valutazione nella Console.

    Questa funzione rende più facile creare prompt con la sintassi delle variabili appropriata per la valutazione.

    Generatore di Prompt

    Creazione di Casi di Test

    Quando accedi alla schermata di Valutazione, hai diverse opzioni per creare casi di test:

    1. Clicca il pulsante '+ Add Row' in basso a sinistra per aggiungere manualmente un caso.
    2. Usa la funzione 'Generate Test Case' per far generare automaticamente casi di test a Claude.
    3. Importa casi di test da un file CSV.

    Per utilizzare la funzione 'Generate Test Case':

    1. 1

      Clicca su 'Generate Test Case'

      Claude genererà casi di test per te, una riga alla volta per ogni volta che clicchi il pulsante.

    2. 2

      Modifica la logica di generazione (opzionale)

      Puoi anche modificare la logica di generazione dei casi di test cliccando sul menu a discesa con la freccia a destra del pulsante 'Generate Test Case', poi su 'Show generation logic' nella parte superiore della finestra Variables che appare. Potresti dover cliccare `Generate' in alto a destra di questa finestra per popolare la logica di generazione iniziale.

      Modificare questo ti permette di personalizzare e affinare i casi di test che Claude genera con maggiore precisione e specificità.

    Ecco un esempio di una schermata di Valutazione popolata con diversi casi di test:

    Schermata di Valutazione Popolata

    Se aggiorni il testo del tuo prompt originale, puoi rieseguire l'intera suite di valutazione contro il nuovo prompt per vedere come i cambiamenti influenzano le prestazioni su tutti i casi di test.

    Consigli per una Valutazione Efficace

    Usa lo strumento helper 'Generate a prompt' nella Console per creare rapidamente prompt con la sintassi delle variabili appropriata per la valutazione.

    Comprensione e confronto dei risultati

    Lo strumento di Valutazione offre diverse funzioni per aiutarti a raffinare i tuoi prompt:

    1. Confronto affiancato: Confronta gli output di due o più prompt per vedere rapidamente l'impatto dei tuoi cambiamenti.
    2. Valutazione della qualità: Valuta la qualità delle risposte su una scala di 5 punti per tracciare i miglioramenti nella qualità delle risposte per prompt.
    3. Versionamento dei prompt: Crea nuove versioni del tuo prompt e riesegui la suite di test per iterare rapidamente e migliorare i risultati.

    Rivedendo i risultati attraverso i casi di test e confrontando diverse versioni di prompt, puoi individuare pattern e fare aggiustamenti informati al tuo prompt in modo più efficiente.

    Inizia a valutare i tuoi prompt oggi per costruire applicazioni AI più robuste con Claude!

    • Accesso alla Funzione di Valutazione
    • Generazione di Prompt
    • Creazione di Casi di Test
    • Consigli per una Valutazione Efficace
    • Comprensione e confronto dei risultati