对于大多数用例,服务器端压缩是管理长时间对话上下文的主要策略。本页面上的策略适用于需要对清除内容进行更精细控制的特定场景。
上下文编辑允许您在对话历史增长时有选择地清除其中的特定内容。除了优化成本和保持在限制范围内之外,这还涉及主动管理 Claude 所看到的内容:上下文是一种有限资源,边际收益递减,无关内容会降低模型的专注度。上下文编辑为您提供了对该管理过程的细粒度运行时控制。有关上下文管理背后的更广泛原则,请参阅有效的上下文工程。本页面涵盖:
| 方式 | 运行位置 | 策略 | 工作原理 |
|---|---|---|---|
| 服务器端 | API | 工具结果清除(clear_tool_uses_20250919)思考块清除( clear_thinking_20251015) | 在提示到达 Claude 之前应用。从对话历史中清除特定内容。每种策略可以独立配置。 |
| 客户端 | SDK | 压缩 | 在使用 tool_runner 时可在 Python 和 TypeScript SDK 中使用。生成摘要并替换完整对话历史。请参阅下方的客户端压缩。 |
上下文编辑目前处于测试阶段,支持工具结果清除和思考块清除。要启用它,请在您的 API 请求中使用测试版标头 context-management-2025-06-27。
请通过反馈表单分享对此功能的反馈。
This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.
clear_tool_uses_20250919 策略在对话上下文超过您配置的阈值时清除工具结果。这对于大量使用工具的智能体工作流特别有用。一旦 Claude 处理了旧的工具结果(如文件内容或搜索结果),这些结果就不再需要了。
激活后,API 会按时间顺序自动清除最旧的工具结果。每个被清除的结果都会被占位符文本替换,以便 Claude 知道它已被删除。默认情况下,只清除工具结果。您可以通过将 clear_tool_inputs 设置为 true 来选择同时清除工具结果和工具调用(工具使用参数)。
clear_thinking_20251015 策略在启用扩展思考时管理对话中的 thinking 块。此策略让您可以控制思考的保留方式:您可以选择保留更多思考块以维持推理连续性,或更积极地清除它们以节省上下文空间。
默认行为: 当启用扩展思考但未配置 clear_thinking_20251015 策略时,API 会自动仅保留最后一个助手轮次的思考块(等同于 keep: {type: "thinking_turns", value: 1})。
要最大化缓存命中率,请通过设置 keep: "all" 来保留所有思考块。
一个助手对话轮次可能包含多个内容块(例如使用工具时)和多个思考块(例如使用交错思考时)。
上下文编辑在提示到达 Claude 之前在服务器端应用。您的客户端应用程序维护完整的、未修改的对话历史。您不需要将客户端状态与编辑后的版本同步。继续像往常一样在本地管理您的完整对话历史。
上下文编辑与提示缓存的交互因策略而异:
工具结果清除:清除内容时会使缓存的提示前缀失效。为了应对这种情况,清除足够多的 token 以使缓存失效变得值得。使用 clear_at_least 参数确保每次清除最少数量的 token。每次清除内容时都会产生缓存写入成本,但后续请求可以重用新缓存的前缀。
思考块清除:当思考块被保留在上下文中(未被清除)时,提示缓存得以保留,从而实现缓存命中并降低输入 token 成本。当思考块被清除时,缓存在清除发生的位置失效。根据您是否希望优先考虑缓存性能或上下文窗口可用性来配置 keep 参数。
上下文编辑适用于:
claude-opus-4-6)claude-opus-4-5-20251101)claude-opus-4-1-20250805)claude-opus-4-20250514)claude-sonnet-4-6)claude-sonnet-4-5-20250929)claude-sonnet-4-20250514)claude-haiku-4-5-20251001)启用工具结果清除的最简单方法是仅指定策略类型。所有其他配置选项使用其默认值:
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--header "anthropic-beta: context-management-2025-06-27" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 4096,
"messages": [
{
"role": "user",
"content": "Search for recent developments in AI"
}
],
"tools": [
{
"type": "web_search_20250305",
"name": "web_search"
}
],
"context_management": {
"edits": [
{"type": "clear_tool_uses_20250919"}
]
}
}'您可以使用其他参数自定义工具结果清除行为:
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--header "anthropic-beta: context-management-2025-06-27" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 4096,
"messages": [
{
"role": "user",
"content": "Create a simple command line calculator app using Python"
}
],
"tools": [
{
"type": "text_editor_20250728",
"name": "str_replace_based_edit_tool",
"max_characters": 10000
},
{
"type": "web_search_20250305",
"name": "web_search",
"max_uses": 3
}
],
"context_management": {
"edits": [
{
"type": "clear_tool_uses_20250919",
"trigger": {
"type": "input_tokens",
"value": 30000
},
"keep": {
"type": "tool_uses",
"value": 3
},
"clear_at_least": {
"type": "input_tokens",
"value": 5000
},
"exclude_tools": ["web_search"]
}
]
}
}'启用思考块清除以在启用扩展思考时有效管理上下文和提示缓存:
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--header "anthropic-beta: context-management-2025-06-27" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"messages": [/* ... */],
"thinking": {
"type": "enabled",
"budget_tokens": 10000
},
"context_management": {
"edits": [
{
"type": "clear_thinking_20251015",
"keep": {
"type": "thinking_turns",
"value": 2
}
}
]
}
}'clear_thinking_20251015 策略支持以下配置:
| 配置选项 | 默认值 | 描述 |
|---|---|---|
keep | {type: "thinking_turns", value: 1} | 定义要保留多少个最近的含思考块的助手轮次。使用 {type: "thinking_turns", value: N}(其中 N 必须 > 0)保留最后 N 个轮次,或使用 "all" 保留所有思考块。 |
示例配置:
保留最后 3 个助手轮次的思考块:
{
"type": "clear_thinking_20251015",
"keep": {
"type": "thinking_turns",
"value": 3
}
}保留所有思考块(最大化缓存命中率):
{
"type": "clear_thinking_20251015",
"keep": "all"
}您可以同时使用思考块清除和工具结果清除:
使用多种策略时,clear_thinking_20251015 策略必须在 edits 数组中排在第一位。
response = client.beta.messages.create(
model="claude-opus-4-6",
max_tokens=1024,
messages=[...],
thinking={"type": "enabled", "budget_tokens": 10000},
tools=[...],
betas=["context-management-2025-06-27"],
context_management={
"edits": [
{
"type": "clear_thinking_20251015",
"keep": {"type": "thinking_turns", "value": 2},
},
{
"type": "clear_tool_uses_20250919",
"trigger": {"type": "input_tokens", "value": 50000},
"keep": {"type": "tool_uses", "value": 5},
},
]
},
)| 配置选项 | 默认值 | 描述 |
|---|---|---|
trigger | 100,000 个输入 token | 定义上下文编辑策略何时激活。一旦提示超过此阈值,清除就会开始。您可以以 input_tokens 或 tool_uses 指定此值。 |
keep | 3 次工具使用 | 定义清除后保留多少个最近的工具使用/结果对。API 首先删除最旧的工具交互,保留最近的交互。 |
clear_at_least | 无 | 确保每次策略激活时至少清除最少数量的 token。如果 API 无法清除至少指定的数量,则不会应用该策略。这有助于确定上下文清除是否值得破坏您的提示缓存。 |
exclude_tools | 无 | 其工具使用和结果永远不应被清除的工具名称列表。用于保留重要上下文。 |
clear_tool_inputs | false | 控制是否随工具结果一起清除工具调用参数。默认情况下,只清除工具结果,同时保留 Claude 的原始工具调用可见。 |
您可以使用 context_management 响应字段查看哪些上下文编辑已应用于您的请求,以及有关已清除内容和输入 token 的有用统计信息。
{
"id": "msg_013Zva2CMHLNnXjNJJKqJ2EF",
"type": "message",
"role": "assistant",
"content": [
// ...
],
"usage": {
// ...
},
"context_management": {
"applied_edits": [
// 使用 `clear_thinking_20251015` 时
{
"type": "clear_thinking_20251015",
"cleared_thinking_turns": 3,
"cleared_input_tokens": 15000
},
// 使用 `clear_tool_uses_20250919` 时
{
"type": "clear_tool_uses_20250919",
"cleared_tool_uses": 8,
"cleared_input_tokens": 50000
}
]
}
}对于流式响应,上下文编辑将包含在最终的 message_delta 事件中:
{
"type": "message_delta",
"delta": {
"stop_reason": "end_turn",
"stop_sequence": null
},
"usage": {
"output_tokens": 1024
},
"context_management": {
"applied_edits": [
// ...
]
}
}Token 计数端点支持上下文管理,允许您预览应用上下文编辑后提示将使用多少 token。
curl https://api.anthropic.com/v1/messages/count_tokens \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--header "anthropic-beta: context-management-2025-06-27" \
--data '{
"model": "claude-opus-4-6",
"messages": [
{
"role": "user",
"content": "Continue our conversation..."
}
],
"tools": [...],
"context_management": {
"edits": [
{
"type": "clear_tool_uses_20250919",
"trigger": {
"type": "input_tokens",
"value": 30000
},
"keep": {
"type": "tool_uses",
"value": 5
}
}
]
}
}'{
"input_tokens": 25000,
"context_management": {
"original_input_tokens": 70000
}
}响应显示应用上下文管理后的最终 token 计数(input_tokens)以及任何清除发生之前的原始 token 计数(original_input_tokens)。
上下文编辑可以与记忆工具结合使用。当您的对话上下文接近配置的清除阈值时,Claude 会收到自动警告以保存重要信息。这使 Claude 能够在工具结果或上下文从对话历史中被清除之前,将其保存到记忆文件中。
这种组合允许您:
例如,在 Claude 执行许多操作的文件编辑工作流中,随着上下文增长,Claude 可以将已完成的更改摘要写入记忆文件。当工具结果被清除时,Claude 通过其记忆系统仍然可以访问该信息,并可以继续有效工作。
要同时使用这两个功能,请在您的 API 请求中启用它们:
response = client.beta.messages.create(
model="claude-opus-4-6",
max_tokens=4096,
messages=[...],
tools=[
{"type": "memory_20250818", "name": "memory"},
# 您的其他工具
],
betas=["context-management-2025-06-27"],
context_management={"edits": [{"type": "clear_tool_uses_20250919"}]},
)建议使用服务器端压缩而非 SDK 压缩。 服务器端压缩以更少的集成复杂性、更好的 token 使用计算以及无客户端限制自动处理上下文管理。仅在您特别需要对摘要生成过程进行客户端控制时才使用 SDK 压缩。
压缩功能在使用 tool_runner 方法时可在 Python 和 TypeScript SDK 中使用。
压缩是一项 SDK 功能,当 token 使用量增长过大时,它通过生成摘要来自动管理对话上下文。与清除内容的服务器端上下文编辑策略不同,压缩会指示 Claude 对对话历史进行摘要,然后用该摘要替换完整历史。这使 Claude 能够继续处理原本会超出上下文窗口的长时间运行任务。
启用压缩后,SDK 会在每次模型响应后监控 token 使用情况:
input_tokens + cache_creation_input_tokens + cache_read_input_tokens + output_tokens。<summary></summary> 标签中的结构化摘要。将 compaction_control 添加到您的 tool_runner 调用中:
import anthropic
client = anthropic.Anthropic()
runner = client.beta.messages.tool_runner(
model="claude-opus-4-6",
max_tokens=4096,
tools=[...],
messages=[
{
"role": "user",
"content": "Analyze all the files in this directory and write a summary report.",
}
],
compaction_control={"enabled": True, "context_token_threshold": 100000},
)
for message in runner:
print(f"Tokens used: {message.usage.input_tokens}")
final = runner.until_done()随着对话增长,消息历史不断积累:
压缩前(接近 100k token):
[
{ "role": "user", "content": "Analyze all files and write a report..." },
{ "role": "assistant", "content": "I'll help. Let me start by reading..." },
{
"role": "user",
"content": [{ "type": "tool_result", "tool_use_id": "...", "content": "..." }]
},
{ "role": "assistant", "content": "Based on file1.txt, I see..." },
{
"role": "user",
"content": [{ "type": "tool_result", "tool_use_id": "...", "content": "..." }]
},
{ "role": "assistant", "content": "After analyzing file2.txt..." }
// ... 还有 50 次类似的交换 ...
]当 token 超过阈值时,SDK 注入摘要请求,Claude 生成摘要。然后整个历史被替换:
压缩后(回到约 2-3k token):
[
{
"role": "assistant",
"content": "# Task Overview\nThe user requested analysis of directory files to produce a summary report...\n\n# Current State\nAnalyzed 52 files across 3 subdirectories. Key findings documented in report.md...\n\n# Important Discoveries\n- Configuration files use YAML format\n- Found 3 deprecated dependencies\n- Test coverage at 67%\n\n# Next Steps\n1. Analyze remaining files in /src/legacy\n2. Complete final report sections...\n\n# Context to Preserve\nUser prefers markdown format with executive summary first..."
}
]Claude 从这个摘要继续工作,就好像它是原始对话历史一样。
| 参数 | 类型 | 必填 | 默认值 | 描述 |
|---|---|---|---|---|
enabled | boolean | 是 | - | 是否启用自动压缩 |
context_token_threshold | number | 否 | 100,000 | 触发压缩的 token 计数 |
model | string | 否 | 与主模型相同 | 用于生成摘要的模型 |
summary_prompt | string | 否 | 见下文 | 用于摘要生成的自定义提示 |
阈值决定压缩发生的时机。较低的阈值意味着更频繁的压缩和更小的上下文窗口。较高的阈值允许更多上下文,但有达到限制的风险。
# 内存受限场景下更频繁的压缩
compaction_control = {"enabled": True, "context_token_threshold": 50000}
# 需要更多上下文时较少频繁的压缩
compaction_control = {"enabled": True, "context_token_threshold": 150000}您可以使用更快或更便宜的模型来生成摘要:
compaction_control = {
"enabled": True,
"context_token_threshold": 100000,
"model": "claude-haiku-4-5",
}您可以为特定领域的需求提供自定义提示。您的提示应指示 Claude 将其摘要包裹在 <summary></summary> 标签中。
compaction_control = {
"enabled": True,
"context_token_threshold": 100000,
"summary_prompt": """Summarize the research conducted so far, including:
- Sources consulted and key findings
- Questions answered and remaining unknowns
- Recommended next steps
Wrap your summary in <summary></summary> tags.""",
}内置摘要提示词指示 Claude 创建一个结构化的续接摘要,包括:
这种结构使 Claude 能够高效地恢复工作,而不会丢失重要上下文或重复错误。
使用服务端工具时,SDK 可能会错误计算 token 用量,导致压缩在错误的时间触发。
例如,在执行网络搜索操作后,API 响应可能显示:
{
"usage": {
"input_tokens": 63000,
"cache_read_input_tokens": 270000,
"output_tokens": 1400
}
}SDK 将总用量计算为 63,000 + 270,000 = 333,000 个 token。然而,cache_read_input_tokens 的值包含了服务端工具进行的多次内部 API 调用的累积读取量,而非您实际的对话上下文。您的实际上下文长度可能只有 63,000 个 input_tokens,但 SDK 看到的是 333k,从而过早触发压缩。
解决方法:
当压缩在工具使用响应待处理时触发,SDK 会在生成摘要之前从消息历史中移除工具使用块。如果仍然需要,Claude 将在从摘要恢复后重新发出工具调用。
启用日志记录以跟踪压缩发生的时间:
import logging
logging.basicConfig(level=logging.INFO)
logging.getLogger("anthropic.lib.tools").setLevel(logging.INFO)
# Logs will show:
# INFO: Token usage 105000 has exceeded the threshold of 100000. Performing compaction.
# INFO: Compaction complete. New token usage: 2500适合的使用场景:
不太理想的使用场景:
Was this page helpful?