Prompt caching è una potente funzionalità che ottimizza l'utilizzo dell'API consentendo di riprendere da prefissi specifici nei tuoi prompt. Questo approccio riduce significativamente i tempi di elaborazione e i costi per attività ripetitive o prompt con elementi coerenti.
Ecco un esempio di come implementare prompt caching con l'API Messages utilizzando un blocco cache_control:
curl https://api.anthropic.com/v1/messages \
-H "content-type: application/json" \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-d '{
"model": "claude-sonnet-4-5",
"max_tokens": 1024,
"system": [
{
"type": "text",
"text": "You are an AI assistant tasked with analyzing literary works. Your goal is to provide insightful commentary on themes, characters, and writing style.\n"
},
{
"type": "text",
"text": "<the entire contents of Pride and Prejudice>",
"cache_control": {"type": "ephemeral"}
}
],
"messages": [
{
"role": "user",
"content": "Analyze the major themes in Pride and Prejudice."
}
]
}'
# Call the model again with the same inputs up to the cache checkpoint
curl https://api.anthropic.com/v1/messages # rest of input{"cache_creation_input_tokens":188086,"cache_read_input_tokens":0,"input_tokens":21,"output_tokens":393}
{"cache_creation_input_tokens":0,"cache_read_input_tokens":188086,"input_tokens":21,"output_tokens":393}In questo esempio, l'intero testo di "Pride and Prejudice" viene memorizzato nella cache utilizzando il parametro cache_control. Questo consente il riutilizzo di questo testo di grandi dimensioni su più chiamate API senza rielaborarlo ogni volta. Modificando solo il messaggio dell'utente puoi fare varie domande sul libro mentre utilizzi il contenuto memorizzato nella cache, portando a risposte più veloci e a una migliore efficienza.
Quando invii una richiesta con prompt caching abilitato:
Questo è particolarmente utile per:
Per impostazione predefinita, la cache ha una durata di 5 minuti. La cache viene aggiornata senza costi aggiuntivi ogni volta che il contenuto memorizzato nella cache viene utilizzato.
Se ritieni che 5 minuti sia troppo breve, Anthropic offre anche una durata della cache di 1 ora a costo aggiuntivo.
Per ulteriori informazioni, vedi Durata della cache di 1 ora.
Prompt caching memorizza nella cache l'intero prefisso
Prompt caching fa riferimento all'intero prompt - tools, system e messages (in quell'ordine) fino a e includendo il blocco designato con cache_control.
Prompt caching introduce una nuova struttura di prezzi. La tabella seguente mostra il prezzo per milione di token per ogni modello supportato:
| Model | Base Input Tokens | 5m Cache Writes | 1h Cache Writes | Cache Hits & Refreshes | Output Tokens |
|---|---|---|---|---|---|
| Claude Opus 4.5 | $5 / MTok | $6.25 / MTok | $10 / MTok | $0.50 / MTok | $25 / MTok |
| Claude Opus 4.1 | $15 / MTok | $18.75 / MTok | $30 / MTok | $1.50 / MTok | $75 / MTok |
| Claude Opus 4 | $15 / MTok | $18.75 / MTok | $30 / MTok | $1.50 / MTok | $75 / MTok |
| Claude Sonnet 4.5 | $3 / MTok | $3.75 / MTok | $6 / MTok | $0.30 / MTok | $15 / MTok |
| Claude Sonnet 4 |
La tabella sopra riflette i seguenti moltiplicatori di prezzo per prompt caching:
Prompt caching è attualmente supportato su:
Posiziona il contenuto statico (definizioni di strumenti, istruzioni di sistema, contesto, esempi) all'inizio del tuo prompt. Contrassegna la fine del contenuto riutilizzabile per il caching utilizzando il parametro cache_control.
I prefissi della cache vengono creati nel seguente ordine: tools, system, quindi messages. Questo ordine forma una gerarchia in cui ogni livello si basa su quelli precedenti.
Puoi utilizzare un solo punto di interruzione della cache alla fine del tuo contenuto statico e il sistema troverà automaticamente la sequenza più lunga di blocchi memorizzati nella cache corrispondenti. Comprendere come funziona aiuta a ottimizzare la tua strategia di caching.
Tre principi fondamentali:
Le chiavi della cache sono cumulative: Quando memorizzi esplicitamente un blocco nella cache con cache_control, la chiave hash della cache viene generata eseguendo l'hash di tutti i blocchi precedenti nella conversazione in sequenza. Ciò significa che la cache per ogni blocco dipende da tutto il contenuto che lo precede.
Controllo sequenziale all'indietro: Il sistema verifica i risultati della cache lavorando all'indietro dal tuo punto di interruzione esplicito, controllando ogni blocco precedente in ordine inverso. Ciò garantisce che tu ottenga il risultato della cache più lungo possibile.
Finestra di lookback di 20 blocchi: Il sistema verifica solo fino a 20 blocchi prima di ogni punto di interruzione cache_control esplicito. Dopo aver controllato 20 blocchi senza una corrispondenza, smette di controllare e passa al punto di interruzione esplicito successivo (se presente).
Esempio: Comprensione della finestra di lookback
Considera una conversazione con 30 blocchi di contenuto in cui imposti cache_control solo sul blocco 30:
Se invii il blocco 31 senza modifiche ai blocchi precedenti: Il sistema verifica il blocco 30 (corrispondenza!). Ottieni un risultato della cache al blocco 30 e solo il blocco 31 necessita di elaborazione.
Se modifichi il blocco 25 e invii il blocco 31: Il sistema verifica all'indietro dal blocco 30 → 29 → 28... → 25 (nessuna corrispondenza) → 24 (corrispondenza!). Poiché il blocco 24 non è stato modificato, ottieni un risultato della cache al blocco 24 e solo i blocchi 25-30 necessitano di rielaborazione.
Se modifichi il blocco 5 e invii il blocco 31: Il sistema verifica all'indietro dal blocco 30 → 29 → 28... → 11 (controllo #20). Dopo 20 controlli senza trovare una corrispondenza, smette di cercare. Poiché il blocco 5 è al di là della finestra di 20 blocchi, non si verifica alcun risultato della cache e tutti i blocchi necessitano di rielaborazione. Tuttavia, se avessi impostato un punto di interruzione cache_control esplicito sul blocco 5, il sistema continuerebbe a controllare da quel punto di interruzione: blocco 5 (nessuna corrispondenza) → blocco 4 (corrispondenza!). Ciò consente un risultato della cache al blocco 4, dimostrando perché dovresti posizionare i punti di interruzione prima del contenuto modificabile.
Conclusione chiave: Imposta sempre un punto di interruzione della cache esplicito alla fine della tua conversazione per massimizzare le tue possibilità di risultati della cache. Inoltre, imposta i punti di interruzione appena prima dei blocchi di contenuto che potrebbero essere modificabili per garantire che quelle sezioni possano essere memorizzate nella cache in modo indipendente.
Puoi definire fino a 4 punti di interruzione della cache se desideri:
Limitazione importante: Se il tuo prompt ha più di 20 blocchi di contenuto prima del tuo punto di interruzione della cache e modifichi il contenuto prima di quei 20 blocchi, non otterrai un risultato della cache a meno che non aggiunga punti di interruzione espliciti aggiuntivi più vicini a quel contenuto.
La lunghezza minima del prompt memorizzabile nella cache è:
I prompt più brevi non possono essere memorizzati nella cache, anche se contrassegnati con cache_control. Qualsiasi richiesta di memorizzare nella cache meno di questo numero di token verrà elaborata senza caching. Per vedere se un prompt è stato memorizzato nella cache, vedi i campi di utilizzo della risposta.
Per le richieste simultanee, nota che una voce della cache diventa disponibile solo dopo l'inizio della prima risposta. Se hai bisogno di risultati della cache per richieste parallele, attendi la prima risposta prima di inviare le richieste successive.
Attualmente, "ephemeral" è l'unico tipo di cache supportato, che per impostazione predefinita ha una durata di 5 minuti.
I punti di interruzione della cache stessi non aggiungono alcun costo. Sei addebitato solo per:
L'aggiunta di più punti di interruzione cache_control non aumenta i tuoi costi - paghi comunque lo stesso importo in base al contenuto effettivamente memorizzato nella cache e letto. I punti di interruzione ti danno semplicemente il controllo su quali sezioni possono essere memorizzate nella cache in modo indipendente.
La maggior parte dei blocchi nella richiesta può essere designata per il caching con cache_control. Questo include:
toolssystemmessages.content, sia per i turni dell'utente che dell'assistentemessages.content, nei turni dell'utentemessages.content, sia per i turni dell'utente che dell'assistenteOgnuno di questi elementi può essere contrassegnato con cache_control per abilitare il caching per quella parte della richiesta.
Sebbene la maggior parte dei blocchi di richiesta possa essere memorizzata nella cache, ci sono alcune eccezioni:
I blocchi di pensiero non possono essere memorizzati nella cache direttamente con cache_control. Tuttavia, i blocchi di pensiero POSSONO essere memorizzati nella cache insieme ad altro contenuto quando appaiono nei turni dell'assistente precedenti. Quando memorizzati nella cache in questo modo, CONTANO come token di input quando letti dalla cache.
I blocchi di sub-contenuto (come citazioni) stessi non possono essere memorizzati nella cache direttamente. Invece, memorizza nella cache il blocco di livello superiore.
Nel caso delle citazioni, i blocchi di contenuto del documento di livello superiore che servono come materiale di origine per le citazioni possono essere memorizzati nella cache. Ciò ti consente di utilizzare prompt caching con le citazioni in modo efficace memorizzando nella cache i documenti a cui le citazioni faranno riferimento.
I blocchi di testo vuoti non possono essere memorizzati nella cache.
Le modifiche al contenuto memorizzato nella cache possono invalidare parte o tutta la cache.
Come descritto in Strutturare il tuo prompt, la cache segue la gerarchia: tools → system → messages. Le modifiche a ogni livello invalidano quel livello e tutti i livelli successivi.
La tabella seguente mostra quali parti della cache vengono invalidate da diversi tipi di modifiche. ✘ indica che la cache viene invalidata, mentre ✓ indica che la cache rimane valida.
| Cosa cambia | Cache degli strumenti | Cache di sistema | Cache dei messaggi | Impatto |
|---|---|---|---|---|
| Definizioni degli strumenti | ✘ | ✘ | ✘ | La modifica delle definizioni degli strumenti (nomi, descrizioni, parametri) invalida l'intera cache |
| Interruttore di ricerca web | ✓ | ✘ | ✘ | L'abilitazione/disabilitazione della ricerca web modifica il prompt di sistema |
| Interruttore di citazioni | ✓ | ✘ | ✘ | L'abilitazione/disabilitazione delle citazioni modifica il prompt di sistema |
| Scelta dello strumento | ✓ | ✓ | ✘ | Le modifiche al parametro tool_choice influiscono solo sui blocchi dei messaggi |
Monitora le prestazioni della cache utilizzando questi campi di risposta dell'API, all'interno di usage nella risposta (o evento message_start se streaming):
cache_creation_input_tokens: Numero di token scritti nella cache durante la creazione di una nuova voce.cache_read_input_tokens: Numero di token recuperati dalla cache per questa richiesta.input_tokens: Numero di token di input che non sono stati letti da o utilizzati per creare una cache (cioè, token dopo l'ultimo punto di interruzione della cache).Comprensione della suddivisione dei token
Il campo input_tokens rappresenta solo i token che vengono dopo l'ultimo punto di interruzione della cache nella tua richiesta - non tutti i token di input che hai inviato.
Per calcolare il totale dei token di input:
total_input_tokens = cache_read_input_tokens + cache_creation_input_tokens + input_tokensSpiegazione spaziale:
cache_read_input_tokens = token prima del punto di interruzione già memorizzati nella cache (letture)cache_creation_input_tokens = token prima del punto di interruzione memorizzati nella cache ora (scritture)input_tokens = token dopo il tuo ultimo punto di interruzione (non idonei per la cache)Esempio: Se hai una richiesta con 100.000 token di contenuto memorizzato nella cache (letto dalla cache), 0 token di nuovo contenuto memorizzato nella cache e 50 token nel tuo messaggio utente (dopo il punto di interruzione della cache):
cache_read_input_tokens: 100.000cache_creation_input_tokens: 0Per ottimizzare le prestazioni del prompt caching:
Personalizza la tua strategia di prompt caching al tuo scenario:
Se riscontri comportamenti inaspettati:
tool_choice e l'utilizzo delle immagini rimangono coerenti tra le chiamatecache_control aggiuntivi prima nel prompt per garantire che tutto il contenuto possa essere memorizzato nella cachetool_use abbiano un ordine stabile poiché alcuni linguaggi (ad esempio Swift, Go) randomizzano l'ordine delle chiavi durante la conversione JSON, interrompendo le cacheLe modifiche a tool_choice o la presenza/assenza di immagini in qualsiasi punto del prompt invalideranno la cache, richiedendo la creazione di una nuova voce della cache. Per ulteriori dettagli sull'invalidazione della cache, vedi Cosa invalida la cache.
Quando utilizzi pensiero esteso con prompt caching, i blocchi di pensiero hanno un comportamento speciale:
Caching automatico insieme ad altro contenuto: Sebbene i blocchi di pensiero non possono essere esplicitamente contrassegnati con cache_control, vengono memorizzati nella cache come parte del contenuto della richiesta quando effettui successive chiamate API con risultati di strumenti. Questo accade comunemente durante l'utilizzo di strumenti quando passi i blocchi di pensiero indietro per continuare la conversazione.
Conteggio dei token di input: Quando i blocchi di pensiero vengono letti dalla cache, contano come token di input nelle tue metriche di utilizzo. Questo è importante per il calcolo dei costi e il budgeting dei token.
Modelli di invalidazione della cache:
cache_control esplicitiPer ulteriori dettagli sull'invalidazione della cache, vedi Cosa invalida la cache.
Esempio con utilizzo di strumenti:
Richiesta 1: Utente: "Qual è il meteo a Parigi?"
Risposta: [thinking_block_1] + [tool_use block 1]
Richiesta 2:
Utente: ["Qual è il meteo a Parigi?"],
Assistente: [thinking_block_1] + [tool_use block 1],
Utente: [tool_result_1, cache=True]
Risposta: [thinking_block_2] + [text block 2]
# La richiesta 2 memorizza nella cache il suo contenuto di richiesta (non la risposta)
# La cache include: messaggio utente, thinking_block_1, tool_use block 1 e tool_result_1
Richiesta 3:
Utente: ["Qual è il meteo a Parigi?"],
Assistente: [thinking_block_1] + [tool_use block 1],
Utente: [tool_result_1, cache=True],
Assistente: [thinking_block_2] + [text block 2],
Utente: [Text response, cache=True]
# Il blocco utente non di risultati di strumenti causa l'ignoranza di tutti i blocchi di pensiero
# Questa richiesta viene elaborata come se i blocchi di pensiero non fossero mai stati presentiQuando viene incluso un blocco utente non di risultati di strumenti, designa un nuovo ciclo dell'assistente e tutti i blocchi di pensiero precedenti vengono rimossi dal contesto.
Per informazioni più dettagliate, vedi la documentazione di pensiero esteso.
Isolamento dell'organizzazione: Le cache sono isolate tra le organizzazioni. Diverse organizzazioni non condividono mai le cache, anche se utilizzano prompt identici.
Corrispondenza esatta: I risultati della cache richiedono segmenti di prompt identici al 100%, incluso tutto il testo e le immagini fino a e includendo il blocco contrassegnato con controllo della cache.
Generazione di token di output: Prompt caching non ha alcun effetto sulla generazione di token di output. La risposta che ricevi sarà identica a quella che otterresti se prompt caching non fosse utilizzato.
Se ritieni che 5 minuti sia troppo breve, Anthropic offre anche una durata della cache di 1 ora a costo aggiuntivo.
Per utilizzare la cache estesa, includi ttl nella definizione di cache_control come questo:
"cache_control": {
"type": "ephemeral",
"ttl": "5m" | "1h"
}La risposta includerà informazioni dettagliate sulla cache come la seguente:
{
"usage": {
"input_tokens": ...,
"cache_read_input_tokens": ...,
"cache_creation_input_tokens": ...,
"output_tokens": ...,
"cache_creation": {
"ephemeral_5m_input_tokens": 456,
"ephemeral_1h_input_tokens": 100,
}
}
}Nota che il campo cache_creation_input_tokens attuale è uguale alla somma dei valori nell'oggetto cache_creation.
Se hai prompt che vengono utilizzati a una cadenza regolare (cioè, prompt di sistema che vengono utilizzati più frequentemente di ogni 5 minuti), continua a utilizzare la cache di 5 minuti, poiché questa continuerà a essere aggiornata senza costi aggiuntivi.
La cache di 1 ora è meglio utilizzata nei seguenti scenari:
La cache di 5 minuti e 1 ora si comportano allo stesso modo rispetto alla latenza. Generalmente vedrai un tempo-al-primo-token migliorato per documenti lunghi.
Puoi utilizzare sia controlli della cache di 1 ora che di 5 minuti nella stessa richiesta, ma con un vincolo importante: Le voci della cache con TTL più lungo devono apparire prima di TTL più brevi (cioè, una voce della cache di 1 ora deve apparire prima di qualsiasi voce della cache di 5 minuti).
Quando si mescolano i TTL, determiniamo tre posizioni di fatturazione nel tuo prompt:
A: Il conteggio dei token al risultato della cache più alto (o 0 se nessun risultato).B: Il conteggio dei token al blocco cache_control di 1 ora più alto dopo A (o è uguale a A se nessuno esiste).C: Il conteggio dei token all'ultimo blocco cache_control.Se B e/o C sono più grandi di A, saranno necessariamente mancati della cache, perché A è il risultato della cache più alto.
Ti verrà addebitato per:
A.(B - A).(C - B).Ecco 3 esempi. Questo rappresenta i token di input di 3 richieste, ognuna delle quali ha diversi risultati della cache e mancati della cache. Ognuno ha una fatturazione calcolata diversa, mostrata nelle caselle colorate, di conseguenza.
Per aiutarti a iniziare con il prompt caching, abbiamo preparato un prompt caching cookbook con esempi dettagliati e best practice.
Di seguito, abbiamo incluso diversi frammenti di codice che mostrano vari modelli di prompt caching. Questi esempi dimostrano come implementare il caching in diversi scenari, aiutandoti a comprendere le applicazioni pratiche di questa funzionalità:
| $3 / MTok |
| $3.75 / MTok |
| $6 / MTok |
| $0.30 / MTok |
| $15 / MTok |
| Claude Sonnet 3.7 (deprecated) | $3 / MTok | $3.75 / MTok | $6 / MTok | $0.30 / MTok | $15 / MTok |
| Claude Haiku 4.5 | $1 / MTok | $1.25 / MTok | $2 / MTok | $0.10 / MTok | $5 / MTok |
| Claude Haiku 3.5 | $0.80 / MTok | $1 / MTok | $1.6 / MTok | $0.08 / MTok | $4 / MTok |
| Claude Opus 3 (deprecated) | $15 / MTok | $18.75 / MTok | $30 / MTok | $1.50 / MTok | $75 / MTok |
| Claude Haiku 3 | $0.25 / MTok | $0.30 / MTok | $0.50 / MTok | $0.03 / MTok | $1.25 / MTok |
| Immagini |
| ✓ |
| ✓ |
| ✘ |
| L'aggiunta/rimozione di immagini in qualsiasi punto del prompt influisce sui blocchi dei messaggi |
| Parametri di pensiero | ✓ | ✓ | ✘ | Le modifiche alle impostazioni di pensiero esteso (abilitazione/disabilitazione, budget) influiscono sui blocchi dei messaggi |
| Risultati non di strumenti passati alle richieste di pensiero esteso | ✓ | ✓ | ✘ | Quando i risultati non di strumenti vengono passati nelle richieste mentre il pensiero esteso è abilitato, tutti i blocchi di pensiero precedentemente memorizzati nella cache vengono rimossi dal contesto e tutti i messaggi nel contesto che seguono quei blocchi di pensiero vengono rimossi dalla cache. Per ulteriori dettagli, vedi Caching con blocchi di pensiero. |
input_tokens: 50Questo è importante per comprendere sia i costi che i limiti di velocità, poiché input_tokens sarà tipicamente molto più piccolo del tuo input totale quando utilizzi il caching in modo efficace.