La "finestra di contesto" si riferisce alla totalità della quantità di testo che un modello di linguaggio può consultare e referenziare quando genera nuovo testo, più il nuovo testo che genera. Questo è diverso dal grande corpus di dati su cui il modello di linguaggio è stato addestrato, e rappresenta invece una "memoria di lavoro" per il modello. Una finestra di contesto più ampia consente al modello di comprendere e rispondere a prompt più complessi e lunghi, mentre una finestra di contesto più piccola può limitare la capacità del modello di gestire prompt più lunghi o mantenere la coerenza su conversazioni estese.
Il diagramma sottostante illustra il comportamento standard della finestra di contesto per le richieste API1:
1Per le interfacce di chat, come per claude.ai, le finestre di contesto possono anche essere configurate su un sistema "first in, first out" continuo.
Quando si utilizza il pensiero esteso, tutti i token di input e output, inclusi i token utilizzati per il pensiero, contano verso il limite della finestra di contesto, con alcune sfumature in situazioni multi-turno.
I token del budget di pensiero sono un sottoinsieme del tuo parametro max_tokens, vengono fatturati come token di output e contano verso i limiti di velocità.
Tuttavia, i blocchi di pensiero precedenti vengono automaticamente rimossi dal calcolo della finestra di contesto dall'API Claude e non fanno parte della cronologia della conversazione che il modello "vede" per i turni successivi, preservando la capacità di token per il contenuto della conversazione effettiva.
Il diagramma sottostante dimostra la gestione specializzata dei token quando il pensiero esteso è abilitato:
context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens.thinking che i blocchi redacted_thinking.Questa architettura è efficiente in termini di token e consente un ragionamento esteso senza spreco di token, poiché i blocchi di pensiero possono essere sostanziali in lunghezza.
Puoi leggere di più sulla finestra di contesto e il pensiero esteso nella nostra guida al pensiero esteso.
Il diagramma sottostante illustra la gestione dei token della finestra di contesto quando si combina il pensiero esteso con l'uso degli strumenti:
Architettura del primo turno
Gestione dei risultati dello strumento (turno 2)
tool_result. Il blocco di pensiero esteso deve essere restituito con i risultati dello strumento corrispondente. Questo è l'unico caso in cui devi restituire i blocchi di pensiero.user).Terzo Step
User.User al di fuori del ciclo di uso dello strumento, Claude genererà un nuovo blocco di pensiero esteso e continuerà da lì.Assistant corrente conta come parte della finestra di contesto.context_window = input_tokens + current_turn_tokens.I modelli Claude 4 supportano il pensiero interleaved, che consente a Claude di pensare tra le chiamate agli strumenti e fare ragionamenti più sofisticati dopo aver ricevuto i risultati dello strumento.
Claude Sonnet 3.7 non supporta il pensiero interleaved, quindi non c'è interleaving del pensiero esteso e delle chiamate agli strumenti senza un turno utente non-tool_result in mezzo.
Per ulteriori informazioni sull'utilizzo degli strumenti con il pensiero esteso, consulta la nostra guida al pensiero esteso.
Claude Sonnet 4 e 4.5 supportano una finestra di contesto di 1 milione di token. Questa finestra di contesto estesa ti consente di elaborare documenti molto più grandi, mantenere conversazioni più lunghe e lavorare con basi di codice più estese.
La finestra di contesto di 1M token è attualmente in beta per le organizzazioni nel livello di utilizzo 4 e le organizzazioni con limiti di velocità personalizzati. La finestra di contesto di 1M token è disponibile solo per Claude Sonnet 4 e Sonnet 4.5.
Per utilizzare la finestra di contesto di 1M token, includi l'intestazione beta context-1m-2025-08-07 nelle tue richieste API:
from anthropic import Anthropic
client = Anthropic()
response = client.beta.messages.create(
model="claude-sonnet-4-5",
max_tokens=1024,
messages=[
{"role": "user", "content": "Process this large document..."}
],
betas=["context-1m-2025-08-07"]
)Considerazioni importanti:
Claude Sonnet 4.5 e Claude Haiku 4.5 presentano consapevolezza del contesto, consentendo a questi modelli di tracciare la loro finestra di contesto rimanente (cioè "budget di token") durante una conversazione. Questo consente a Claude di eseguire attività e gestire il contesto più efficacemente comprendendo quanto spazio ha a disposizione. Claude è addestrato nativamente per utilizzare questo contesto precisamente per persistere nel compito fino alla fine, piuttosto che dover indovinare quanti token rimangono. Per un modello, la mancanza di consapevolezza del contesto è come competere in uno show di cucina senza un orologio. I modelli Claude 4.5 cambiano questo informando esplicitamente il modello sul suo contesto rimanente, in modo che possa sfruttare al massimo i token disponibili.
Come funziona:
All'inizio di una conversazione, Claude riceve informazioni sulla sua finestra di contesto totale:
<budget:token_budget>200000</budget:token_budget>Il budget è impostato su 200K token (standard), 500K token (Claude.ai Enterprise) o 1M token (beta, per le organizzazioni idonee).
Dopo ogni chiamata dello strumento, Claude riceve un aggiornamento sulla capacità rimanente:
<system_warning>Token usage: 35000/200000; 165000 remaining</system_warning>Questa consapevolezza aiuta Claude a determinare quanta capacità rimane per il lavoro e consente un'esecuzione più efficace su attività di lunga durata. I token delle immagini sono inclusi in questi budget.
Vantaggi:
La consapevolezza del contesto è particolarmente preziosa per:
Per una guida al prompt su come sfruttare la consapevolezza del contesto, consulta la nostra guida alle best practice di Claude 4.
Nei modelli Claude più recenti (a partire da Claude Sonnet 3.7), se la somma dei token di prompt e dei token di output supera la finestra di contesto del modello, il sistema restituirà un errore di convalida anziché troncare silenziosamente il contesto. Questo cambiamento fornisce un comportamento più prevedibile ma richiede una gestione dei token più attenta.
Per pianificare l'utilizzo dei token e assicurarti di rimanere entro i limiti della finestra di contesto, puoi utilizzare l'API di conteggio dei token per stimare quanti token utilizzeranno i tuoi messaggi prima di inviarli a Claude.
Consulta la nostra tabella di confronto dei modelli per un elenco delle dimensioni della finestra di contesto per modello.
Consulta la nostra tabella di confronto dei modelli per un elenco delle dimensioni della finestra di contesto e dei prezzi dei token di input/output per modello.
Scopri di più su come funziona il pensiero esteso e come implementarlo insieme ad altre funzioni come l'uso degli strumenti e la cache dei prompt.