網頁擷取工具允許 Claude 從指定的網頁和 PDF 文件中檢索完整內容。
最新的網頁擷取工具版本(web_fetch_20260209)支援 Claude Opus 4.6 和 Sonnet 4.6 的動態過濾功能。Claude 可以編寫並執行程式碼,在擷取的內容進入上下文視窗之前進行過濾,僅保留相關資訊並丟棄其餘部分。這可以在維持回應品質的同時減少 token 消耗。先前的工具版本(web_fetch_20250910)仍然可用,但不支援動態過濾。
請使用此表單提供關於模型回應品質、API 本身或文件品質的意見回饋。
This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.
在 Claude 處理不受信任的輸入與敏感資料的環境中啟用網頁擷取工具,會帶來資料外洩風險。我們建議僅在受信任的環境中或處理非敏感資料時使用此工具。
為了最小化外洩風險,Claude 不允許動態建構 URL。Claude 只能擷取使用者明確提供的 URL,或來自先前網頁搜尋或網頁擷取結果的 URL。然而,使用此工具時仍存在殘餘風險,應仔細考慮。
如果資料外洩是一個顧慮,請考慮:
max_uses 參數限制請求次數allowed_domains 參數限制為已知安全的網域網頁擷取可在以下模型上使用:
claude-opus-4-6)claude-opus-4-5-20251101)claude-opus-4-1-20250805)claude-opus-4-20250514)claude-sonnet-4-6)claude-sonnet-4-5-20250929)claude-sonnet-4-20250514)claude-3-7-sonnet-20250219)claude-haiku-4-5-20251001)claude-3-5-haiku-latest)當您在 API 請求中加入網頁擷取工具時:
網頁擷取工具目前不支援透過 Javascript 動態渲染的網站。
擷取完整的網頁和 PDF 可能會快速消耗 token,特別是當只需要大型文件中的特定資訊時。使用 web_fetch_20260209 工具版本,Claude 可以編寫並執行程式碼,在將擷取的內容載入上下文之前進行過濾。
動態過濾特別適用於:
動態過濾需要啟用程式碼執行工具。網頁擷取工具(無論是否使用動態過濾)可在 Claude API 和 Microsoft Azure 上使用。
要啟用動態過濾,請使用 web_fetch_20260209 工具版本搭配 code-execution-web-tools-2026-02-09 beta 標頭:
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "anthropic-beta: code-execution-web-tools-2026-02-09" \
--header "content-type: application/json" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 4096,
"messages": [
{
"role": "user",
"content": "Fetch the content at https://example.com/research-paper and extract the key findings."
}
],
"tools": [{
"type": "web_fetch_20260209",
"name": "web_fetch"
}]
}'在您的 API 請求中提供網頁擷取工具:
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "Please analyze the content at https://example.com/article"
}
],
"tools": [{
"type": "web_fetch_20250910",
"name": "web_fetch",
"max_uses": 5
}]
}'網頁擷取工具支援以下參數:
{
"type": "web_fetch_20250910",
"name": "web_fetch",
// 可選:限制每次請求的擷取次數
"max_uses": 10,
// 可選:僅從這些網域擷取
"allowed_domains": ["example.com", "docs.example.com"],
// 可選:永不從這些網域擷取
"blocked_domains": ["private.example.com"],
// 可選:為擷取的內容啟用引用
"citations": {
"enabled": true
},
// 可選:最大內容長度(以 token 計)
"max_content_tokens": 100000
}max_uses 參數限制執行的網頁擷取次數。如果 Claude 嘗試超過允許次數的擷取,web_fetch_tool_result 將會是一個帶有 max_uses_exceeded 錯誤代碼的錯誤。目前沒有預設限制。
使用網域過濾時:
example.com 而非 https://example.com)example.com 涵蓋 docs.example.com)example.com/blog)allowed_domains 或 blocked_domains,但不能在同一請求中同時使用兩者。請注意,網域名稱中的 Unicode 字元可能透過同形攻擊造成安全漏洞,其中來自不同文字系統的視覺相似字元可以繞過網域過濾。例如,аmazon.com(使用西里爾字母 'а')可能看起來與 amazon.com 相同,但代表不同的網域。
配置網域允許/封鎖清單時:
max_content_tokens 參數限制將包含在上下文中的內容量。如果擷取的內容超過此限制,將會被截斷。這有助於在擷取大型文件時控制 token 使用量。
max_content_tokens 參數限制是近似值。實際使用的輸入 token 數量可能會有少量差異。
與網頁搜尋始終啟用引用不同,網頁擷取的引用是可選的。設定 "citations": {"enabled": true} 以啟用 Claude 引用擷取文件中的特定段落。
當直接向終端使用者顯示 API 輸出時,必須包含指向原始來源的引用。如果您在向終端使用者顯示之前對 API 輸出進行修改,包括重新處理和/或與您自己的材料結合,請根據您法律團隊的諮詢適當地顯示引用。
以下是回應結構的範例:
{
"role": "assistant",
"content": [
// 1. Claude 決定擷取
{
"type": "text",
"text": "I'll fetch the content from the article to analyze it."
},
// 2. 擷取請求
{
"type": "server_tool_use",
"id": "srvtoolu_01234567890abcdef",
"name": "web_fetch",
"input": {
"url": "https://example.com/article"
}
},
// 3. 擷取結果
{
"type": "web_fetch_tool_result",
"tool_use_id": "srvtoolu_01234567890abcdef",
"content": {
"type": "web_fetch_result",
"url": "https://example.com/article",
"content": {
"type": "document",
"source": {
"type": "text",
"media_type": "text/plain",
"data": "Full text content of the article..."
},
"title": "Article Title",
"citations": {"enabled": true}
},
"retrieved_at": "2025-08-25T10:30:00Z"
}
},
// 4. Claude 的分析與引用(如果已啟用)
{
"text": "Based on the article, ",
"type": "text"
},
{
"text": "the main argument presented is that artificial intelligence will transform healthcare",
"type": "text",
"citations": [
{
"type": "char_location",
"document_index": 0,
"document_title": "Article Title",
"start_char_index": 1234,
"end_char_index": 1456,
"cited_text": "Artificial intelligence is poised to revolutionize healthcare delivery..."
}
]
}
],
"id": "msg_a930390d3a",
"usage": {
"input_tokens": 25039,
"output_tokens": 931,
"server_tool_use": {
"web_fetch_requests": 1
}
},
"stop_reason": "end_turn"
}擷取結果包括:
url:被擷取的 URLcontent:包含擷取內容的文件區塊retrieved_at:內容被檢索的時間戳記網頁擷取工具會快取結果以提升效能並減少冗餘請求。這意味著返回的內容可能不總是該 URL 上可用的最新版本。快取行為是自動管理的,可能會隨時間變化以針對不同的內容類型和使用模式進行最佳化。
對於 PDF 文件,內容將以 base64 編碼資料返回:
{
"type": "web_fetch_tool_result",
"tool_use_id": "srvtoolu_02",
"content": {
"type": "web_fetch_result",
"url": "https://example.com/paper.pdf",
"content": {
"type": "document",
"source": {
"type": "base64",
"media_type": "application/pdf",
"data": "JVBERi0xLjQKJcOkw7zDtsOfCjIgMCBvYmo..."
},
"citations": {"enabled": true}
},
"retrieved_at": "2025-08-25T10:30:02Z"
}
}當網頁擷取工具遇到錯誤時,Claude API 會返回 200(成功)回應,錯誤在回應主體中表示:
{
"type": "web_fetch_tool_result",
"tool_use_id": "srvtoolu_a93jad",
"content": {
"type": "web_fetch_tool_error",
"error_code": "url_not_accessible"
}
}以下是可能的錯誤代碼:
invalid_input:無效的 URL 格式url_too_long:URL 超過最大長度(250 個字元)url_not_allowed:URL 被網域過濾規則和模型限制封鎖url_not_accessible:無法擷取內容(HTTP 錯誤)too_many_requests:超過速率限制unsupported_content_type:不支援的內容類型(僅支援文字和 PDF)max_uses_exceeded:超過網頁擷取工具最大使用次數unavailable:發生內部錯誤基於安全原因,網頁擷取工具只能擷取先前出現在對話上下文中的 URL。這包括:
該工具無法擷取 Claude 生成的任意 URL 或來自基於容器的伺服器工具(程式碼執行、Bash 等)的 URL。
網頁擷取與網頁搜尋無縫配合,實現全面的資訊收集:
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-opus-4-6",
max_tokens=4096,
messages=[
{
"role": "user",
"content": "Find recent articles about quantum computing and analyze the most relevant one in detail",
}
],
tools=[
{"type": "web_search_20250305", "name": "web_search", "max_uses": 3},
{
"type": "web_fetch_20250910",
"name": "web_fetch",
"max_uses": 5,
"citations": {"enabled": True},
},
],
)在此工作流程中,Claude 將:
網頁擷取可與提示快取配合使用。要啟用提示快取,請在您的請求中加入 cache_control 中斷點。快取的擷取結果可以在對話輪次之間重複使用。
import anthropic
client = anthropic.Anthropic()
# 第一次使用網頁擷取的請求
messages = [
{
"role": "user",
"content": "Analyze this research paper: https://arxiv.org/abs/2024.12345",
}
]
response1 = client.messages.create(
model="claude-opus-4-6",
max_tokens=1024,
messages=messages,
tools=[{"type": "web_fetch_20250910", "name": "web_fetch"}],
)
# 將 Claude 的回應加入對話
messages.append({"role": "assistant", "content": response1.content})
# 第二次請求帶有快取中斷點
messages.append(
{
"role": "user",
"content": "What methodology does the paper use?",
"cache_control": {"type": "ephemeral"},
}
)
response2 = client.messages.create(
model="claude-opus-4-6",
max_tokens=1024,
messages=messages,
tools=[{"type": "web_fetch_20250910", "name": "web_fetch"}],
)
# 第二次回應受益於快取的擷取結果
print(f"Cache read tokens: {response2.usage.get('cache_read_input_tokens', 0)}")啟用串流後,擷取事件是串流的一部分,在內容檢索期間會有暫停:
event: message_start
data: {"type": "message_start", "message": {"id": "msg_abc123", "type": "message"}}
event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "text", "text": ""}}
// Claude 決定擷取
event: content_block_start
data: {"type": "content_block_start", "index": 1, "content_block": {"type": "server_tool_use", "id": "srvtoolu_xyz789", "name": "web_fetch"}}
// 擷取 URL 串流
event: content_block_delta
data: {"type": "content_block_delta", "index": 1, "delta": {"type": "input_json_delta", "partial_json": "{\"url\":\"https://example.com/article\"}"}}
// 擷取執行期間暫停
// 擷取結果串流
event: content_block_start
data: {"type": "content_block_start", "index": 2, "content_block": {"type": "web_fetch_tool_result", "tool_use_id": "srvtoolu_xyz789", "content": {"type": "web_fetch_result", "url": "https://example.com/article", "content": {"type": "document", "source": {"type": "text", "media_type": "text/plain", "data": "Article content..."}}}}}
// Claude 的回應繼續...您可以在 Messages Batches API 中包含網頁擷取工具。透過 Messages Batches API 的網頁擷取工具呼叫與常規 Messages API 請求中的定價相同。
Web fetch usage has no additional charges beyond standard token costs:
"usage": {
"input_tokens": 25039,
"output_tokens": 931,
"cache_read_input_tokens": 0,
"cache_creation_input_tokens": 0,
"server_tool_use": {
"web_fetch_requests": 1
}
}The web fetch tool is available on the Claude API at no additional cost. You only pay standard token costs for the fetched content that becomes part of your conversation context.
To protect against inadvertently fetching large content that would consume excessive tokens, use the max_content_tokens parameter to set appropriate limits based on your use case and budget considerations.
Example token usage for typical content:
Was this page helpful?