Loading...
    • Guia do Desenvolvedor
    • Referência da API
    • MCP
    • Recursos
    • Notas de lançamento
    Search...
    ⌘K
    Primeiros passos
    Introdução ao ClaudeInício rápido
    Modelos e preços
    Visão geral dos modelosEscolhendo um modeloNovidades no Claude 4.6Guia de migraçãoDescontinuação de modelosPreços
    Construir com Claude
    Visão geral de recursosUsando a API MessagesTratando motivos de paradaMelhores práticas de prompting
    Capacidades do modelo
    Pensamento estendidoPensamento adaptativoEsforçoModo rápido (visualização de pesquisa)Saídas estruturadasCitaçõesStreaming de mensagensProcessamento em loteSuporte a PDFResultados de pesquisaSuporte multilíngueEmbeddingsVisão
    Ferramentas
    Visão geralComo implementar o uso de ferramentasFerramenta de pesquisa na webFerramenta de busca na webFerramenta de execução de códigoFerramenta de memóriaFerramenta BashFerramenta de uso do computadorFerramenta de editor de texto
    Infraestrutura de ferramentas
    Pesquisa de ferramentasChamada de ferramentas programáticaStreaming de ferramentas de granulação fina
    Gerenciamento de contexto
    Janelas de contextoCompactaçãoEdição de contextoCache de promptsContagem de tokens
    Arquivos e ativos
    API de arquivos
    Habilidades do agente
    Visão geralInício rápidoMelhores práticasHabilidades para empresasUsando habilidades com a API
    SDK do agente
    Visão geralInício rápidoSDK TypeScriptTypeScript V2 (visualização)SDK PythonGuia de migração
    MCP na API
    Conector MCPServidores MCP remotos
    Claude em plataformas de terceiros
    Amazon BedrockMicrosoft FoundryVertex AI
    Engenharia de prompts
    Visão geralGerador de promptsUsar modelos de promptsMelhorador de promptsSeja claro e diretoUse exemplos (prompting multishot)Deixe Claude pensar (CoT)Use tags XMLDê um papel ao Claude (prompts do sistema)Encadear prompts complexosDicas de contexto longoDicas de pensamento estendido
    Testar e avaliar
    Definir critérios de sucessoDesenvolver casos de testeUsando a ferramenta de avaliaçãoReduzindo latência
    Fortalecer proteções
    Reduzir alucinaçõesAumentar consistência de saídaMitigar jailbreaksRecusas de streamingReduzir vazamento de promptsManter Claude em personagem
    Administração e monitoramento
    Visão geral da API de administraçãoResidência de dadosEspaços de trabalhoAPI de uso e custoAPI de análise de código ClaudeRetenção zero de dados
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Gerenciamento de contexto

    Edição de contexto

    Gerencie automaticamente o contexto da conversa conforme ele cresce com a edição de contexto.

    Visão geral

    Para a maioria dos casos de uso, a compactação no lado do servidor é a estratégia principal para gerenciar o contexto em conversas de longa duração. As estratégias nesta página são úteis para cenários específicos onde você precisa de um controle mais granular sobre qual conteúdo é removido.

    A edição de contexto permite que você limpe seletivamente conteúdo específico do histórico de conversas conforme ele cresce. Além de otimizar custos e permanecer dentro dos limites, trata-se de curar ativamente o que Claude vê: o contexto é um recurso finito com retornos decrescentes, e conteúdo irrelevante degrada o foco do modelo. A edição de contexto oferece controle granular em tempo de execução sobre essa curadoria. Para os princípios mais amplos por trás do gerenciamento de contexto, consulte Engenharia de contexto eficaz. Esta página aborda:

    • Limpeza de resultados de ferramentas - Melhor para fluxos de trabalho agênticos com uso intenso de ferramentas onde os resultados antigos de ferramentas não são mais necessários
    • Limpeza de blocos de pensamento - Para gerenciar blocos de pensamento ao usar o pensamento estendido, com opções para preservar o pensamento recente para continuidade de contexto
    • Compactação no lado do cliente com SDK - Uma alternativa baseada em SDK para gerenciamento de contexto baseado em resumo (a compactação no lado do servidor é geralmente preferida)
    AbordagemOnde é executadaEstratégiasComo funciona
    No lado do servidorAPILimpeza de resultados de ferramentas (clear_tool_uses_20250919)
    Limpeza de blocos de pensamento (clear_thinking_20251015)
    Aplicada antes que o prompt chegue ao Claude. Limpa conteúdo específico do histórico de conversas. Cada estratégia pode ser configurada de forma independente.
    No lado do clienteSDKCompactaçãoDisponível nos SDKs Python e TypeScript ao usar tool_runner. Gera um resumo e substitui o histórico completo de conversas. Consulte Compactação no lado do cliente abaixo.

    Estratégias no lado do servidor

    A edição de contexto está atualmente em beta com suporte para limpeza de resultados de ferramentas e limpeza de blocos de pensamento. Para habilitá-la, use o cabeçalho beta context-management-2025-06-27 em suas solicitações de API.

    Compartilhe feedback sobre este recurso através do formulário de feedback.

    This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.

    Limpeza de resultados de ferramentas

    A estratégia clear_tool_uses_20250919 limpa os resultados de ferramentas quando o contexto da conversa cresce além do limite configurado. Isso é particularmente útil para fluxos de trabalho agênticos com uso intenso de ferramentas. Resultados mais antigos de ferramentas (como conteúdos de arquivos ou resultados de pesquisa) não são mais necessários depois que Claude os processou.

    Quando ativada, a API limpa automaticamente os resultados de ferramentas mais antigos em ordem cronológica. Cada resultado limpo é substituído por texto de espaço reservado para que Claude saiba que foi removido. Por padrão, apenas os resultados de ferramentas são limpos. Você pode opcionalmente limpar tanto os resultados de ferramentas quanto as chamadas de ferramentas (os parâmetros de uso de ferramentas) definindo clear_tool_inputs como true.

    Limpeza de blocos de pensamento

    A estratégia clear_thinking_20251015 gerencia blocos de thinking em conversas quando o pensamento estendido está habilitado. Esta estratégia oferece controle sobre a preservação do pensamento: você pode escolher manter mais blocos de pensamento para manter a continuidade do raciocínio, ou limpá-los de forma mais agressiva para economizar espaço de contexto.

    Comportamento padrão: Quando o pensamento estendido está habilitado sem configurar a estratégia clear_thinking_20251015, a API mantém automaticamente apenas os blocos de pensamento do último turno do assistente (equivalente a keep: {type: "thinking_turns", value: 1}).

    Para maximizar os acertos de cache, preserve todos os blocos de pensamento definindo keep: "all".

    Um turno de conversa do assistente pode incluir múltiplos blocos de conteúdo (por exemplo, ao usar ferramentas) e múltiplos blocos de pensamento (por exemplo, com pensamento intercalado).

    A edição de contexto acontece no lado do servidor

    A edição de contexto é aplicada no lado do servidor antes que o prompt chegue ao Claude. Sua aplicação cliente mantém o histórico completo e não modificado da conversa. Você não precisa sincronizar o estado do seu cliente com a versão editada. Continue gerenciando seu histórico completo de conversas localmente como faria normalmente.

    Edição de contexto e cache de prompt

    A interação da edição de contexto com o cache de prompt varia por estratégia:

    • Limpeza de resultados de ferramentas: Invalida prefixos de prompt em cache quando o conteúdo é limpo. Para compensar isso, limpe tokens suficientes para tornar a invalidação do cache válida. Use o parâmetro clear_at_least para garantir que um número mínimo de tokens seja limpo a cada vez. Você incorrerá em custos de escrita de cache cada vez que o conteúdo for limpo, mas solicitações subsequentes podem reutilizar o prefixo recém-armazenado em cache.

    • Limpeza de blocos de pensamento: Quando os blocos de pensamento são mantidos no contexto (não limpos), o cache de prompt é preservado, permitindo acertos de cache e reduzindo os custos de tokens de entrada. Quando os blocos de pensamento são limpos, o cache é invalidado no ponto onde a limpeza ocorre. Configure o parâmetro keep com base em se você deseja priorizar o desempenho do cache ou a disponibilidade da janela de contexto.

    Modelos suportados

    A edição de contexto está disponível em:

    • Claude Opus 4.6 (claude-opus-4-6)
    • Claude Opus 4.5 (claude-opus-4-5-20251101)
    • Claude Opus 4.1 (claude-opus-4-1-20250805)
    • Claude Opus 4 (claude-opus-4-20250514)
    • Claude Sonnet 4.6 (claude-sonnet-4-6)
    • Claude Sonnet 4.5 (claude-sonnet-4-5-20250929)
    • Claude Sonnet 4 (claude-sonnet-4-20250514)
    • Claude Haiku 4.5 (claude-haiku-4-5-20251001)

    Uso da limpeza de resultados de ferramentas

    A maneira mais simples de habilitar a limpeza de resultados de ferramentas é especificar apenas o tipo de estratégia. Todas as outras opções de configuração usam seus valores padrão:

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --header "anthropic-beta: context-management-2025-06-27" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 4096,
            "messages": [
                {
                    "role": "user",
                    "content": "Search for recent developments in AI"
                }
            ],
            "tools": [
                {
                    "type": "web_search_20250305",
                    "name": "web_search"
                }
            ],
            "context_management": {
                "edits": [
                    {"type": "clear_tool_uses_20250919"}
                ]
            }
        }'

    Configuração avançada

    Você pode personalizar o comportamento de limpeza de resultados de ferramentas com parâmetros adicionais:

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --header "anthropic-beta: context-management-2025-06-27" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 4096,
            "messages": [
                {
                    "role": "user",
                    "content": "Create a simple command line calculator app using Python"
                }
            ],
            "tools": [
                {
                    "type": "text_editor_20250728",
                    "name": "str_replace_based_edit_tool",
                    "max_characters": 10000
                },
                {
                    "type": "web_search_20250305",
                    "name": "web_search",
                    "max_uses": 3
                }
            ],
            "context_management": {
                "edits": [
                    {
                        "type": "clear_tool_uses_20250919",
                        "trigger": {
                            "type": "input_tokens",
                            "value": 30000
                        },
                        "keep": {
                            "type": "tool_uses",
                            "value": 3
                        },
                        "clear_at_least": {
                            "type": "input_tokens",
                            "value": 5000
                        },
                        "exclude_tools": ["web_search"]
                    }
                ]
            }
        }'

    Uso da limpeza de blocos de pensamento

    Habilite a limpeza de blocos de pensamento para gerenciar o contexto e o cache de prompt de forma eficaz quando o pensamento estendido estiver habilitado:

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --header "anthropic-beta: context-management-2025-06-27" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "messages": [/* ... */],
            "thinking": {
                "type": "enabled",
                "budget_tokens": 10000
            },
            "context_management": {
                "edits": [
                    {
                        "type": "clear_thinking_20251015",
                        "keep": {
                            "type": "thinking_turns",
                            "value": 2
                        }
                    }
                ]
            }
        }'

    Opções de configuração para limpeza de blocos de pensamento

    A estratégia clear_thinking_20251015 suporta a seguinte configuração:

    Opção de configuraçãoPadrãoDescrição
    keep{type: "thinking_turns", value: 1}Define quantos turnos recentes do assistente com blocos de pensamento devem ser preservados. Use {type: "thinking_turns", value: N} onde N deve ser > 0 para manter os últimos N turnos, ou "all" para manter todos os blocos de pensamento.

    Exemplos de configurações:

    Manter blocos de pensamento dos últimos 3 turnos do assistente:

    {
      "type": "clear_thinking_20251015",
      "keep": {
        "type": "thinking_turns",
        "value": 3
      }
    }

    Manter todos os blocos de pensamento (maximiza os acertos de cache):

    {
      "type": "clear_thinking_20251015",
      "keep": "all"
    }

    Combinando estratégias

    Você pode usar tanto a limpeza de blocos de pensamento quanto a limpeza de resultados de ferramentas juntas:

    Ao usar múltiplas estratégias, a estratégia clear_thinking_20251015 deve ser listada primeiro no array edits.

    response = client.beta.messages.create(
        model="claude-opus-4-6",
        max_tokens=1024,
        messages=[...],
        thinking={"type": "enabled", "budget_tokens": 10000},
        tools=[...],
        betas=["context-management-2025-06-27"],
        context_management={
            "edits": [
                {
                    "type": "clear_thinking_20251015",
                    "keep": {"type": "thinking_turns", "value": 2},
                },
                {
                    "type": "clear_tool_uses_20250919",
                    "trigger": {"type": "input_tokens", "value": 50000},
                    "keep": {"type": "tool_uses", "value": 5},
                },
            ]
        },
    )

    Opções de configuração para limpeza de resultados de ferramentas

    Opção de configuraçãoPadrãoDescrição
    trigger100.000 tokens de entradaDefine quando a estratégia de edição de contexto é ativada. Uma vez que o prompt excede este limite, a limpeza começará. Você pode especificar este valor em input_tokens ou tool_uses.
    keep3 usos de ferramentasDefine quantos pares recentes de uso/resultado de ferramentas devem ser mantidos após a limpeza. A API remove as interações de ferramentas mais antigas primeiro, preservando as mais recentes.
    clear_at_leastNenhumGarante que um número mínimo de tokens seja limpo cada vez que a estratégia é ativada. Se a API não conseguir limpar pelo menos a quantidade especificada, a estratégia não será aplicada. Isso ajuda a determinar se a limpeza de contexto vale a pena invalidar seu cache de prompt.
    exclude_toolsNenhumLista de nomes de ferramentas cujos usos e resultados nunca devem ser limpos. Útil para preservar contexto importante.
    clear_tool_inputsfalseControla se os parâmetros de chamada de ferramenta são limpos junto com os resultados de ferramentas. Por padrão, apenas os resultados de ferramentas são limpos, mantendo as chamadas de ferramentas originais do Claude visíveis.

    Resposta de edição de contexto

    Você pode ver quais edições de contexto foram aplicadas à sua solicitação usando o campo de resposta context_management, juntamente com estatísticas úteis sobre o conteúdo e os tokens de entrada limpos.

    Response
    {
      "id": "msg_013Zva2CMHLNnXjNJJKqJ2EF",
      "type": "message",
      "role": "assistant",
      "content": [
        // ...
      ],
      "usage": {
        // ...
      },
      "context_management": {
        "applied_edits": [
          // Ao usar `clear_thinking_20251015`
          {
            "type": "clear_thinking_20251015",
            "cleared_thinking_turns": 3,
            "cleared_input_tokens": 15000
          },
          // Ao usar `clear_tool_uses_20250919`
          {
            "type": "clear_tool_uses_20250919",
            "cleared_tool_uses": 8,
            "cleared_input_tokens": 50000
          }
        ]
      }
    }

    Para respostas em streaming, as edições de contexto serão incluídas no evento final message_delta:

    Streaming Response
    {
      "type": "message_delta",
      "delta": {
        "stop_reason": "end_turn",
        "stop_sequence": null
      },
      "usage": {
        "output_tokens": 1024
      },
      "context_management": {
        "applied_edits": [
          // ...
        ]
      }
    }

    Contagem de tokens

    O endpoint de contagem de tokens suporta gerenciamento de contexto, permitindo que você visualize quantos tokens seu prompt usará após a edição de contexto ser aplicada.

    curl https://api.anthropic.com/v1/messages/count_tokens \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --header "anthropic-beta: context-management-2025-06-27" \
        --data '{
            "model": "claude-opus-4-6",
            "messages": [
                {
                    "role": "user",
                    "content": "Continue our conversation..."
                }
            ],
            "tools": [...],
            "context_management": {
                "edits": [
                    {
                        "type": "clear_tool_uses_20250919",
                        "trigger": {
                            "type": "input_tokens",
                            "value": 30000
                        },
                        "keep": {
                            "type": "tool_uses",
                            "value": 5
                        }
                    }
                ]
            }
        }'
    Response
    {
      "input_tokens": 25000,
      "context_management": {
        "original_input_tokens": 70000
      }
    }

    A resposta mostra tanto a contagem final de tokens após o gerenciamento de contexto ser aplicado (input_tokens) quanto a contagem original de tokens antes de qualquer limpeza ocorrer (original_input_tokens).

    Usando com a Ferramenta de Memória

    A edição de contexto pode ser combinada com a ferramenta de memória. Quando o contexto da sua conversa se aproxima do limite de limpeza configurado, Claude recebe um aviso automático para preservar informações importantes. Isso permite que Claude salve resultados de ferramentas ou contexto em seus arquivos de memória antes que sejam limpos do histórico de conversas.

    Esta combinação permite que você:

    • Preserve contexto importante: Claude pode escrever informações essenciais dos resultados de ferramentas em arquivos de memória antes que esses resultados sejam limpos
    • Mantenha fluxos de trabalho de longa duração: Habilite fluxos de trabalho agênticos que de outra forma excederiam os limites de contexto, descarregando informações para armazenamento persistente
    • Acesse informações sob demanda: Claude pode consultar informações previamente limpas dos arquivos de memória quando necessário, em vez de manter tudo na janela de contexto ativa

    Por exemplo, em um fluxo de trabalho de edição de arquivos onde Claude realiza muitas operações, Claude pode resumir as alterações concluídas em arquivos de memória conforme o contexto cresce. Quando os resultados de ferramentas são limpos, Claude mantém acesso a essas informações através de seu sistema de memória e pode continuar trabalhando de forma eficaz.

    Para usar ambos os recursos juntos, habilite-os em sua solicitação de API:

    response = client.beta.messages.create(
        model="claude-opus-4-6",
        max_tokens=4096,
        messages=[...],
        tools=[
            {"type": "memory_20250818", "name": "memory"},
            # Suas outras ferramentas
        ],
        betas=["context-management-2025-06-27"],
        context_management={"edits": [{"type": "clear_tool_uses_20250919"}]},
    )

    Compactação no lado do cliente (SDK)

    A compactação no lado do servidor é recomendada em vez da compactação via SDK. A compactação no lado do servidor lida com o gerenciamento de contexto automaticamente com menos complexidade de integração, melhor cálculo de uso de tokens e sem limitações no lado do cliente. Use a compactação via SDK apenas se você precisar especificamente de controle no lado do cliente sobre o processo de sumarização.

    A compactação está disponível nos SDKs Python e TypeScript ao usar o método tool_runner.

    A compactação é um recurso do SDK que gerencia automaticamente o contexto da conversa gerando resumos quando o uso de tokens fica muito grande. Ao contrário das estratégias de edição de contexto no lado do servidor que limpam conteúdo, a compactação instrui Claude a resumir o histórico de conversas e, em seguida, substitui o histórico completo por esse resumo. Isso permite que Claude continue trabalhando em tarefas de longa duração que de outra forma excederiam a janela de contexto.

    Como a compactação funciona

    Quando a compactação está habilitada, o SDK monitora o uso de tokens após cada resposta do modelo:

    1. Verificação de limite: O SDK calcula o total de tokens como input_tokens + cache_creation_input_tokens + cache_read_input_tokens + output_tokens.
    2. Geração de resumo: Quando o limite é excedido, um prompt de resumo é injetado como um turno do usuário, e Claude gera um resumo estruturado envolvido em tags <summary></summary>.
    3. Substituição de contexto: O SDK extrai o resumo e substitui todo o histórico de mensagens por ele.
    4. Continuação: A conversa é retomada a partir do resumo, com Claude continuando de onde parou.

    Usando a compactação

    Adicione compaction_control à sua chamada tool_runner:

    import anthropic
    
    client = anthropic.Anthropic()
    
    runner = client.beta.messages.tool_runner(
        model="claude-opus-4-6",
        max_tokens=4096,
        tools=[...],
        messages=[
            {
                "role": "user",
                "content": "Analyze all the files in this directory and write a summary report.",
            }
        ],
        compaction_control={"enabled": True, "context_token_threshold": 100000},
    )
    
    for message in runner:
        print(f"Tokens used: {message.usage.input_tokens}")
    
    final = runner.until_done()

    O que acontece durante a compactação

    Conforme a conversa cresce, o histórico de mensagens se acumula:

    Antes da compactação (aproximando-se de 100k tokens):

    [
      { "role": "user", "content": "Analyze all files and write a report..." },
      { "role": "assistant", "content": "I'll help. Let me start by reading..." },
      {
        "role": "user",
        "content": [{ "type": "tool_result", "tool_use_id": "...", "content": "..." }]
      },
      { "role": "assistant", "content": "Based on file1.txt, I see..." },
      {
        "role": "user",
        "content": [{ "type": "tool_result", "tool_use_id": "...", "content": "..." }]
      },
      { "role": "assistant", "content": "After analyzing file2.txt..." }
      // ... mais 50 trocas como esta ...
    ]

    Quando os tokens excedem o limite, o SDK injeta uma solicitação de resumo e Claude gera um resumo. Todo o histórico é então substituído:

    Após a compactação (de volta a ~2-3k tokens):

    [
      {
        "role": "assistant",
        "content": "# Task Overview\nThe user requested analysis of directory files to produce a summary report...\n\n# Current State\nAnalyzed 52 files across 3 subdirectories. Key findings documented in report.md...\n\n# Important Discoveries\n- Configuration files use YAML format\n- Found 3 deprecated dependencies\n- Test coverage at 67%\n\n# Next Steps\n1. Analyze remaining files in /src/legacy\n2. Complete final report sections...\n\n# Context to Preserve\nUser prefers markdown format with executive summary first..."
      }
    ]

    Claude continua trabalhando a partir deste resumo como se fosse o histórico de conversas original.

    Opções de configuração

    ParâmetroTipoObrigatórioPadrãoDescrição
    enabledbooleanSim-Se deve habilitar a compactação automática
    context_token_thresholdnumberNão100.000Contagem de tokens na qual a compactação é acionada
    modelstringNãoMesmo que o modelo principalModelo a ser usado para gerar resumos
    summary_promptstringNãoVeja abaixoPrompt personalizado para geração de resumo

    Escolhendo um limite de tokens

    O limite determina quando a compactação ocorre. Um limite menor significa compactações mais frequentes com janelas de contexto menores. Um limite maior permite mais contexto, mas arrisca atingir os limites.

    # Compactação mais frequente para cenários com restrição de memória
    compaction_control = {"enabled": True, "context_token_threshold": 50000}
    
    # Compactação menos frequente quando você precisa de mais contexto
    compaction_control = {"enabled": True, "context_token_threshold": 150000}

    Usando um modelo diferente para resumos

    Você pode usar um modelo mais rápido ou mais barato para gerar resumos:

    compaction_control = {
        "enabled": True,
        "context_token_threshold": 100000,
        "model": "claude-haiku-4-5",
    }

    Prompts de resumo personalizados

    Você pode fornecer um prompt personalizado para necessidades específicas do domínio. Seu prompt deve instruir Claude a envolver seu resumo em tags <summary></summary>.

    compaction_control = {
        "enabled": True,
        "context_token_threshold": 100000,
        "summary_prompt": """Summarize the research conducted so far, including:
    - Sources consulted and key findings
    - Questions answered and remaining unknowns
    - Recommended next steps
    
    Wrap your summary in <summary></summary> tags.""",
    }

    Prompt de resumo padrão

    O prompt de resumo integrado instrui Claude a criar um resumo de continuação estruturado que inclui:

    1. Visão Geral da Tarefa: A solicitação principal do usuário, critérios de sucesso e restrições.
    2. Estado Atual: O que foi concluído, arquivos modificados e artefatos produzidos.
    3. Descobertas Importantes: Restrições técnicas, decisões tomadas, erros resolvidos e abordagens que falharam.
    4. Próximos Passos: Ações específicas necessárias, bloqueadores e ordem de prioridade.
    5. Contexto a Preservar: Preferências do usuário, detalhes específicos do domínio e compromissos assumidos.

    Essa estrutura permite que Claude retome o trabalho de forma eficiente sem perder contexto importante ou repetir erros.

    Limitações

    Ferramentas do lado do servidor

    A compactação requer consideração especial ao usar ferramentas do lado do servidor, como pesquisa na web ou busca na web.

    Ao usar ferramentas do lado do servidor, o SDK pode calcular incorretamente o uso de tokens, fazendo com que a compactação seja acionada no momento errado.

    Por exemplo, após uma operação de pesquisa na web, a resposta da API pode mostrar:

    {
      "usage": {
        "input_tokens": 63000,
        "cache_read_input_tokens": 270000,
        "output_tokens": 1400
      }
    }

    O SDK calcula o uso total como 63.000 + 270.000 = 333.000 tokens. No entanto, o valor cache_read_input_tokens inclui leituras acumuladas de múltiplas chamadas internas à API feitas pela ferramenta do lado do servidor, não o contexto real da sua conversa. O comprimento real do seu contexto pode ser apenas os 63.000 input_tokens, mas o SDK vê 333k e aciona a compactação prematuramente.

    Soluções alternativas:

    • Use o endpoint de contagem de tokens para obter o comprimento preciso do contexto
    • Evite a compactação ao usar ferramentas do lado do servidor extensivamente

    Casos extremos de uso de ferramentas

    Quando a compactação é acionada enquanto uma resposta de uso de ferramenta está pendente, o SDK remove o bloco de uso de ferramenta do histórico de mensagens antes de gerar o resumo. Claude irá reemitir a chamada de ferramenta após retomar a partir do resumo, se ainda necessário.

    Monitorando a compactação

    Ative o registro de logs para rastrear quando a compactação ocorre:

    import logging
    
    logging.basicConfig(level=logging.INFO)
    logging.getLogger("anthropic.lib.tools").setLevel(logging.INFO)
    
    # Os logs mostrarão:
    # INFO: Token usage 105000 has exceeded the threshold of 100000. Performing compaction.
    # INFO: Compaction complete. New token usage: 2500

    Quando usar a compactação

    Bons casos de uso:

    • Tarefas de agente de longa duração que processam muitos arquivos ou fontes de dados
    • Fluxos de trabalho de pesquisa que acumulam grandes quantidades de informações
    • Tarefas de múltiplas etapas com progresso claro e mensurável
    • Tarefas que produzem artefatos (arquivos, relatórios) que persistem fora da conversa

    Casos de uso menos ideais:

    • Tarefas que exigem recordação precisa de detalhes de conversas anteriores
    • Fluxos de trabalho que usam ferramentas do lado do servidor extensivamente
    • Tarefas que precisam manter o estado exato em muitas variáveis

    Was this page helpful?

    • Visão geral
    • Estratégias no lado do servidor
    • Limpeza de resultados de ferramentas
    • Limpeza de blocos de pensamento
    • A edição de contexto acontece no lado do servidor
    • Edição de contexto e cache de prompt
    • Modelos suportados
    • Uso da limpeza de resultados de ferramentas
    • Configuração avançada
    • Uso da limpeza de blocos de pensamento
    • Opções de configuração para limpeza de blocos de pensamento
    • Combinando estratégias
    • Opções de configuração para limpeza de resultados de ferramentas
    • Resposta de edição de contexto
    • Contagem de tokens
    • Usando com a Ferramenta de Memória
    • Compactação no lado do cliente (SDK)
    • Como a compactação funciona
    • Usando a compactação
    • Opções de configuração
    • Prompt de resumo padrão
    • Limitações
    • Monitorando a compactação
    • Quando usar a compactação