À medida que as conversas crescem, você eventualmente se aproximará dos limites da janela de contexto. Este guia explica como as janelas de contexto funcionam e apresenta estratégias para gerenciá-las efetivamente.
Para conversas de longa duração e fluxos de trabalho com agentes, compactação do lado do servidor é a estratégia principal para gerenciamento de contexto. Para necessidades mais especializadas, edição de contexto oferece estratégias adicionais como limpeza de resultados de ferramentas e limpeza de blocos de pensamento.
A "janela de contexto" refere-se a todo o texto que um modelo de linguagem pode referenciar ao gerar uma resposta, incluindo a resposta em si. Isso é diferente do grande corpus de dados em que o modelo de linguagem foi treinado, e em vez disso representa uma "memória de trabalho" para o modelo. Uma janela de contexto maior permite que o modelo lide com prompts mais complexos e longos. Uma janela de contexto menor pode limitar a capacidade do modelo de manter coerência em conversas estendidas.
O diagrama abaixo ilustra o comportamento padrão da janela de contexto para solicitações de API1:
1Para interfaces de chat, como para claude.ai, as janelas de contexto também podem ser configuradas em um sistema "primeiro a entrar, primeiro a sair" contínuo.
Ao usar pensamento estendido, todos os tokens de entrada e saída, incluindo os tokens usados para pensamento, contam para o limite da janela de contexto, com algumas nuances em situações multi-turno.
Os tokens do orçamento de pensamento são um subconjunto do seu parâmetro max_tokens, são cobrados como tokens de saída e contam para os limites de taxa. Com pensamento adaptativo, Claude decide dinamicamente sua alocação de pensamento, portanto o uso real de tokens de pensamento pode variar por solicitação.
No entanto, os blocos de pensamento anteriores são automaticamente removidos do cálculo da janela de contexto pela API Claude e não fazem parte do histórico de conversa que o modelo "vê" para turnos subsequentes, preservando a capacidade de tokens para conteúdo de conversa real.
O diagrama abaixo demonstra o gerenciamento especializado de tokens quando o pensamento estendido está ativado:
context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens.thinking e blocos redacted_thinking.Esta arquitetura é eficiente em tokens e permite raciocínio extenso sem desperdício de tokens, pois os blocos de pensamento podem ser substanciais em comprimento.
Você pode ler mais sobre a janela de contexto e pensamento estendido no guia de pensamento estendido.
O diagrama abaixo ilustra o gerenciamento de tokens da janela de contexto ao combinar pensamento estendido com uso de ferramentas:
Arquitetura do primeiro turno
Tratamento de resultado de ferramenta (turno 2)
tool_result. O bloco de pensamento estendido deve ser retornado com os resultados de ferramenta correspondentes. Este é o único caso em que você tem que retornar blocos de pensamento.user).Terceiro Passo
User.User fora do ciclo de uso de ferramenta, Claude gerará um novo bloco de pensamento estendido e continuará a partir daí.Assistant atual conta como parte da janela de contexto.context_window = input_tokens + current_turn_tokens.Os modelos Claude 4 suportam pensamento intercalado, que permite que Claude pense entre chamadas de ferramentas e faça raciocínio mais sofisticado após receber resultados de ferramentas.
Claude Sonnet 3.7 não suporta pensamento intercalado, portanto não há intercalação de pensamento estendido e chamadas de ferramentas sem um turno de usuário não-tool_result no meio.
Para mais informações sobre como usar ferramentas com pensamento estendido, consulte o guia de pensamento estendido.
Claude Opus 4.6, Sonnet 4.5 e Sonnet 4 suportam uma janela de contexto de 1 milhão de tokens. Esta janela de contexto estendida permite que você processe documentos muito maiores, mantenha conversas mais longas e trabalhe com bases de código mais extensas.
A janela de contexto de 1M tokens está atualmente em beta para organizações no nível de uso 4 e organizações com limites de taxa personalizados. A janela de contexto de 1M tokens está disponível apenas para Claude Opus 4.6, Sonnet 4.5 e Sonnet 4.
Para usar a janela de contexto de 1M tokens, inclua o cabeçalho beta context-1m-2025-08-07 em suas solicitações de API:
curl https://api.anthropic.com/v1/messages \
-H "x-api-key: $ANTHROPIC_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "anthropic-beta: context-1m-2025-08-07" \
-H "content-type: application/json" \
-d '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "Process this large document..."}
]
}'Considerações importantes:
Claude Sonnet 4.5 e Claude Haiku 4.5 apresentam consciência de contexto. Esta capacidade permite que esses modelos rastreiem sua janela de contexto restante (ou seja, "orçamento de tokens") ao longo de uma conversa. Isso permite que Claude execute tarefas e gerencie contexto de forma mais eficaz, entendendo quanto espaço tem para trabalhar. Claude é treinado para usar este contexto com precisão, persistindo na tarefa até o final em vez de adivinhar quantos tokens permanecem. Para um modelo, a falta de consciência de contexto é como competir em um programa de culinária sem um relógio. Os modelos Claude 4.5 mudam isso informando explicitamente ao modelo sobre seu contexto restante, para que ele possa aproveitar ao máximo os tokens disponíveis.
Como funciona:
No início de uma conversa, Claude recebe informações sobre sua janela de contexto total:
<budget:token_budget>200000</budget:token_budget>O orçamento é definido como 200K tokens (padrão), 500K tokens (claude.ai Enterprise) ou 1M tokens (beta, para organizações elegíveis).
Após cada chamada de ferramenta, Claude recebe uma atualização sobre a capacidade restante:
<system_warning>Token usage: 35000/200000; 165000 remaining</system_warning>Esta consciência ajuda Claude a determinar quanto de capacidade permanece para trabalho e permite execução mais eficaz em tarefas de longa duração. Os tokens de imagem estão incluídos nestes orçamentos.
Benefícios:
A consciência de contexto é particularmente valiosa para:
Para orientação de prompting sobre como aproveitar a consciência de contexto, consulte o guia de melhores práticas de prompting.
Se suas conversas regularmente se aproximam dos limites da janela de contexto, compactação do lado do servidor é a abordagem recomendada. A compactação fornece sumarização do lado do servidor que condensa automaticamente as partes anteriores de uma conversa, permitindo conversas de longa duração além dos limites de contexto com trabalho de integração mínimo. Está atualmente disponível em beta para Claude Opus 4.6.
Para necessidades mais especializadas, edição de contexto oferece estratégias adicionais:
Modelos Claude mais novos (começando com Claude Sonnet 3.7) retornam um erro de validação quando tokens de prompt e saída excedem a janela de contexto, em vez de truncar silenciosamente. Esta mudança fornece comportamento mais previsível, mas requer gerenciamento de tokens mais cuidadoso.
Use a API de contagem de tokens para estimar o uso de tokens antes de enviar mensagens para Claude. Isso ajuda você a planejar e permanecer dentro dos limites da janela de contexto.
Consulte a tabela de comparação de modelos para uma lista de tamanhos de janela de contexto por modelo.
A estratégia recomendada para gerenciar contexto em conversas de longa duração.
Estratégias refinadas como limpeza de resultado de ferramenta e limpeza de bloco de pensamento.
Consulte a tabela de comparação de modelos para uma lista de tamanhos de janela de contexto e preços de tokens de entrada/saída por modelo.
Saiba mais sobre como o pensamento estendido funciona e como implementá-lo junto com outros recursos, como uso de ferramentas e cache de prompt.
Was this page helpful?