Loading...
  • ビルド
  • 管理
  • モデルと料金
  • クライアントSDK
  • APIリファレンス
Search...
⌘K
Log in
ストリーミングメッセージ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
ビルド/モデル機能

ストリーミングメッセージ

メッセージを作成する際に、"stream": trueを設定して、サーバー送信イベント(SSE)を使用して応答をインクリメンタルにストリーミングできます。

メッセージを作成する際に、"stream": trueを設定して、サーバー送信イベント(SSE)を使用して応答をインクリメンタルにストリーミングできます。

SDKでのストリーミング

PythonおよびTypeScript SDKは複数のストリーミング方法を提供しています。PHP SDKはcreateStream()を介してストリーミングを提供しています。Python SDKは同期ストリーミングと非同期ストリーミングの両方をサポートしています。詳細については、各SDKのドキュメントを参照してください。

client = anthropic.Anthropic()

with client.messages.stream(
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello"}],
    model="claude-opus-4-7",
) as stream:
    for text in stream.text_stream:
        print(text, end="", flush=True)

イベント処理なしで最終メッセージを取得する

テキストが到着するときに処理する必要がない場合、SDKはストリーミングを内部で使用しながら、.create()が返すのと同じ完全なMessageオブジェクトを返す方法を提供しています。これは特に大きなmax_tokens値を持つリクエストに役立ちます。SDKはHTTPタイムアウトを回避するためにストリーミングが必要です。

client = anthropic.Anthropic()

with client.messages.stream(
    max_tokens=128000,
    messages=[{"role": "user", "content": "Write a detailed analysis..."}],
    model="claude-opus-4-7",
) as stream:
    message = stream.get_final_message()

print(message.content[0].text)

.stream()呼び出しはサーバー送信イベントでHTTP接続を保持し、その後.get_final_message()(Python)または.finalMessage()(TypeScript)がすべてのイベントを蓄積して完全なMessageオブジェクトを返します。Goでは、ストリームループ内でmessage.Accumulate(event)を呼び出して同じ完全なMessageを構築します。Javaでは、MessageAccumulator.create()を使用し、各イベントでaccumulator.accumulate(event)を呼び出します。Rubyでは、ストリームで.accumulated_messageを呼び出します。PHP SDKでは、ストリームイベントを手動で反復処理して応答を蓄積します。

イベントタイプ

各サーバー送信イベントには、名前付きイベントタイプと関連するJSONデータが含まれています。各イベントはSSEイベント名(例:event: message_stop)を使用し、そのデータに一致するイベントtypeを含みます。

各ストリームは以下のイベントフローを使用します:

  1. message_start:空のcontentを持つMessageオブジェクトを含みます。 2.一連のコンテンツブロック。各ブロックはcontent_block_start、1つ以上のcontent_block_deltaイベント、およびcontent_block_stopイベントを持ちます。各コンテンツブロックには、最終メッセージのcontent配列内のインデックスに対応するindexがあります。
  2. 1つ以上のmessage_deltaイベント。最終Messageオブジェクトへのトップレベルの変更を示します。
  3. 最終的なmessage_stopイベント。

message_deltaイベントのusageフィールドに表示されるトークンカウントは累積です。

Pingイベント

イベントストリームには、任意の数のpingイベントが含まれる場合があります。

エラーイベント

APIは時々イベントストリームでエラーを送信する場合があります。例えば、使用量が多い期間中に、overloaded_errorを受け取る場合があります。これは通常、非ストリーミングコンテキストではHTTP 529に対応します:

エラーの例
event: error
data: {"type": "error", "error": {"type": "overloaded_error", "message": "Overloaded"}}

その他のイベント

バージョニングポリシーに従い、新しいイベントタイプが追加される場合があり、コードは不明なイベントタイプを適切に処理する必要があります。

コンテンツブロックデルタタイプ

各content_block_deltaイベントには、指定されたindexでcontentブロックを更新するdeltaが含まれています。

テキストデルタ

textコンテンツブロックデルタは次のようになります:

テキストデルタ
event: content_block_delta
data: {"type": "content_block_delta","index": 0,"delta": {"type": "text_delta", "text": "ello frien"}}

入力JSONデルタ

tool_useコンテンツブロックのデルタは、ブロックのinputフィールドの更新に対応しています。最大の粒度をサポートするために、デルタは部分的なJSON文字列ですが、最終的なtool_use.inputは常にオブジェクトです。

文字列デルタを蓄積し、content_block_stopイベントを受け取った後、Pydanticのようなライブラリを使用して部分的なJSONパースを行うか、解析されたインクリメンタル値にアクセスするためのヘルパーを提供するSDKを使用してJSONをパースできます。

tool_useコンテンツブロックデルタは次のようになります:

入力JSONデルタ
event: content_block_delta
data: {"type": "content_block_delta","index": 1,"delta": {"type": "input_json_delta","partial_json": "{\"location\": \"San Fra"}}

注:現在のモデルは、inputから一度に1つの完全なキーと値のプロパティのみを出力することをサポートしています。そのため、ツールを使用する場合、モデルが作業中の間、ストリーミングイベント間に遅延が生じる可能性があります。inputキーと値が蓄積されると、チャンク化された部分的なjsonを持つ複数のcontent_block_deltaイベントとして出力されるため、フォーマットは将来のモデルでより細かい粒度を自動的にサポートできます。

思考デルタ

ストリーミングが有効な拡張思考を使用する場合、thinking_deltaイベントを介して思考コンテンツを受け取ります。これらのデルタは、thinkingコンテンツブロックのthinkingフィールドに対応しています。

思考コンテンツの場合、content_block_stopイベントの直前に特別なsignature_deltaイベントが送信されます。この署名は思考ブロックの整合性を検証するために使用されます。

思考設定でdisplay: "omitted"が設定されている場合、thinking_deltaイベントは送信されません。思考ブロックが開き、単一のsignature_deltaを受け取り、閉じます。思考表示の制御を参照してください。

典型的な思考デルタは次のようになります:

思考デルタ
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "I need to find the GCD of 1071 and 462 using the Euclidean algorithm.\n\n1071 = 2 × 462 + 147"}}

署名デルタは次のようになります:

署名デルタ
event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "signature_delta", "signature": "EqQBCgIYAhIM1gbcDa9GJwZA2b3hGgxBdjrkzLoky3dl1pkiMOYds..."}}

完全なHTTPストリーム応答

ストリーミングモードを使用する場合は、クライアントSDKを使用してください。ただし、直接API統合を構築している場合は、これらのイベントを自分で処理する必要があります。

ストリーム応答は以下で構成されています:

  1. message_startイベント
  2. 潜在的に複数のコンテンツブロック。各ブロックには以下が含まれます:
    • content_block_startイベント
    • 潜在的に複数のcontent_block_deltaイベント
    • content_block_stopイベント
  3. message_deltaイベント
  4. message_stopイベント

応答全体にpingイベントが分散している場合があります。フォーマットの詳細については、イベントタイプを参照してください。

基本的なストリーミングリクエスト

client = anthropic.Anthropic()

with client.messages.stream(
    model="claude-opus-4-7",
    messages=[{"role": "user", "content": "Hello"}],
    max_tokens=256,
) as stream:
    for text in stream.text_stream:
        print(text, end="", flush=True)
応答
event: message_start
data: {"type": "message_start", "message": {"id": "msg_1nZdL29xx5MUA1yADyHTEsnR8uuvGzszyY", "type": "message", "role": "assistant", "content": [], "model": "claude-opus-4-7", "stop_reason": null, "stop_sequence": null, "usage": {"input_tokens": 25, "output_tokens": 1}}}

event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "text", "text": ""}}

event: ping
data: {"type": "ping"}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "text_delta", "text": "Hello"}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "text_delta", "text": "!"}}

event: content_block_stop
data: {"type": "content_block_stop", "index": 0}

event: message_delta
data: {"type": "message_delta", "delta": {"stop_reason": "end_turn", "stop_sequence":null}, "usage": {"output_tokens": 15}}

event: message_stop
data: {"type": "message_stop"}

ツール使用によるストリーミングリクエスト

ツール使用は、パラメータ値のきめ細かいストリーミングをサポートしています。eager_input_streamingでツールごとに有効にします。

このリクエストは、Claudeにツールを使用して天気を報告するよう求めています。

client = anthropic.Anthropic()

tools = [
    {
        "name": "get_weather",
        "description": "Get the current weather in a given location",
        "input_schema": {
            "type": "object",
            "properties": {
                "location": {
                    "type": "string",
                    "description": "The city and state, e.g. San Francisco, CA",
                }
            },
            "required": ["location"],
        },
    }
]

with client.messages.stream(
    model="claude-opus-4-7",
    max_tokens=1024,
    tools=tools,
    tool_choice={"type": "any"},
    messages=[
        {"role": "user", "content": "What is the weather like in San Francisco?"}
    ],
) as stream:
    for text in stream.text_stream:
        print(text, end="", flush=True)
Response
event: message_start
data: {"type":"message_start","message":{"id":"msg_014p7gG3wDgGV9EUtLvnow3U","type":"message","role":"assistant","model":"claude-opus-4-7","stop_sequence":null,"usage":{"input_tokens":472,"output_tokens":2},"content":[],"stop_reason":null}}

event: content_block_start
data: {"type":"content_block_start","index":0,"content_block":{"type":"text","text":""}}

event: ping
data: {"type": "ping"}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"Okay"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":","}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" let"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"'s"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" check"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" the"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" weather"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" for"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" San"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" Francisco"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":","}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" CA"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":":"}}

event: content_block_stop
data: {"type":"content_block_stop","index":0}

event: content_block_start
data: {"type":"content_block_start","index":1,"content_block":{"type":"tool_use","id":"toolu_01T1x1fJ34qAmk2tNTrN7Up6","name":"get_weather","input":{}}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":""}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"{\"location\":"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":" \"San"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":" Francisc"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"o,"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":" CA\""}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":","}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":" \"unit\": \"fah"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"renheit\"}"}}

event: content_block_stop
data: {"type":"content_block_stop","index":1}

event: message_delta
data: {"type":"message_delta","delta":{"stop_reason":"tool_use","stop_sequence":null},"usage":{"output_tokens":89}}

event: message_stop
data: {"type":"message_stop"}

拡張思考によるストリーミングリクエスト

このリクエストは、ストリーミングで拡張思考を有効にして、Claudeのステップバイステップの推論を確認します。

client = anthropic.Anthropic()

with client.messages.stream(
    model="claude-opus-4-7",
    max_tokens=20000,
    thinking={"type": "adaptive", "display": "summarized"},
    messages=[
        {
            "role": "user",
            "content": "What is the greatest common divisor of 1071 and 462?",
        }
    ],
) as stream:
    for event in stream:
        if event.type == "content_block_delta":
            if event.delta.type == "thinking_delta":
                print(event.delta.thinking, end="", flush=True)
            elif event.delta.type == "text_delta":
                print(event.delta.text, end="", flush=True)
Response
event: message_start
data: {"type": "message_start", "message": {"id": "msg_01...", "type": "message", "role": "assistant", "content": [], "model": "claude-opus-4-7", "stop_reason": null, "stop_sequence": null}}

event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "thinking", "thinking": "", "signature": ""}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "I need to find the GCD of 1071 and 462 using the Euclidean algorithm.\n\n1071 = 2 × 462 + 147"}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "\n462 = 3 × 147 + 21"}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "\n147 = 7 × 21 + 0"}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "\nThe remainder is 0, so GCD(1071, 462) = 21."}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "signature_delta", "signature": "EqQBCgIYAhIM1gbcDa9GJwZA2b3hGgxBdjrkzLoky3dl1pkiMOYds..."}}

event: content_block_stop
data: {"type": "content_block_stop", "index": 0}

event: content_block_start
data: {"type": "content_block_start", "index": 1, "content_block": {"type": "text", "text": ""}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 1, "delta": {"type": "text_delta", "text": "The greatest common divisor of 1071 and 462 is **21**."}}

event: content_block_stop
data: {"type": "content_block_stop", "index": 1}

event: message_delta
data: {"type": "message_delta", "delta": {"stop_reason": "end_turn", "stop_sequence": null}}

event: message_stop
data: {"type": "message_stop"}

ウェブ検索ツール使用によるストリーミングリクエスト

このリクエストは、Claudeに現在の天気情報をウェブで検索するよう求めています。

client = anthropic.Anthropic()

with client.messages.stream(
    model="claude-opus-4-7",
    max_tokens=1024,
    tools=[{"type": "web_search_20250305", "name": "web_search", "max_uses": 5}],
    messages=[
        {"role": "user", "content": "What is the weather like in New York City today?"}
    ],
) as stream:
    for text in stream.text_stream:
        print(text, end="", flush=True)
Response
event: message_start
data: {"type":"message_start","message":{"id":"msg_01G...","type":"message","role":"assistant","model":"claude-opus-4-7","content":[],"stop_reason":null,"stop_sequence":null,"usage":{"input_tokens":2679,"cache_creation_input_tokens":0,"cache_read_input_tokens":0,"output_tokens":3}}}

event: content_block_start
data: {"type":"content_block_start","index":0,"content_block":{"type":"text","text":""}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"I'll check"}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":" the current weather in New York City for you"}}

event: ping
data: {"type": "ping"}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"."}}

event: content_block_stop
data: {"type":"content_block_stop","index":0}

event: content_block_start
data: {"type":"content_block_start","index":1,"content_block":{"type":"server_tool_use","id":"srvtoolu_014hJH82Qum7Td6UV8gDXThB","name":"web_search","input":{}}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":""}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"{\"query"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"\":"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":" \"weather"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":" NY"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"C to"}}

event: content_block_delta
data: {"type":"content_block_delta","index":1,"delta":{"type":"input_json_delta","partial_json":"day\"}"}}

event: content_block_stop
data: {"type":"content_block_stop","index":1 }

event: content_block_start
data: {"type":"content_block_start","index":2,"content_block":{"type":"web_search_tool_result","tool_use_id":"srvtoolu_014hJH82Qum7Td6UV8gDXThB","content":[{"type":"web_search_result","title":"Weather in New York City in May 2025 (New York) - detailed Weather Forecast for a month","url":"https://world-weather.info/forecast/usa/new_york/may-2025/","encrypted_content":"Ev0DCioIAxgCIiQ3NmU4ZmI4OC1k...","page_age":null},...]}}

event: content_block_stop
data: {"type":"content_block_stop","index":2}

event: content_block_start
data: {"type":"content_block_start","index":3,"content_block":{"type":"text","text":""}}

event: content_block_delta
data: {"type":"content_block_delta","index":3,"delta":{"type":"text_delta","text":"Here's the current weather information for New York"}}

event: content_block_delta
data: {"type":"content_block_delta","index":3,"delta":{"type":"text_delta","text":" City:\n\n# Weather"}}

event: content_block_delta
data: {"type":"content_block_delta","index":3,"delta":{"type":"text_delta","text":" in New York City"}}

event: content_block_delta
data: {"type":"content_block_delta","index":3,"delta":{"type":"text_delta","text":"\n\n"}}

...

event: content_block_stop
data: {"type":"content_block_stop","index":17}

event: message_delta
data: {"type":"message_delta","delta":{"stop_reason":"end_turn","stop_sequence":null},"usage":{"input_tokens":10682,"cache_creation_input_tokens":0,"cache_read_input_tokens":0,"output_tokens":510,"server_tool_use":{"web_search_requests":1}}}

event: message_stop
data: {"type":"message_stop"}

エラーリカバリー

Claude 4.5以前

Claude 4.5モデル以前では、ネットワークの問題、タイムアウト、またはその他のエラーによって中断されたストリーミングリクエストを、ストリームが中断された場所から再開することで復旧できます。このアプローチにより、応答全体を再処理する必要がなくなります。

基本的なリカバリー戦略には以下が含まれます:

  1. 部分的な応答をキャプチャする:エラーが発生する前に正常に受信されたすべてのコンテンツを保存する
  2. 継続リクエストを構築する:部分的なアシスタント応答を新しいアシスタントメッセージの開始として含む新しいAPIリクエストを作成する
  3. ストリーミングを再開する:中断された場所から応答の残りを受信し続ける

Claude 4.6

Claude 4.6モデルの場合、ユーザーメッセージを追加して、モデルに中断された場所から続行するよう指示する必要があります。例えば:

Sample prompt
Your previous response was interrupted and ended with [previous_response]. Continue from where you left off.

エラーリカバリーのベストプラクティス

  1. SDKの機能を使用する:SDKの組み込みメッセージ蓄積とエラーハンドリング機能を活用する
  2. コンテンツタイプを処理する:メッセージには複数のコンテンツブロック(text、tool_use、thinking)が含まれる可能性があることに注意する。ツール使用と拡張思考ブロックは部分的に復旧することはできません。最新のテキストブロックからストリーミングを再開できます。

Was this page helpful?

  • SDKでのストリーミング
  • Pingイベント
  • 入力JSONデルタ
  • 完全なHTTPストリーム応答
  • Claude 4.5以前
  • Claude 4.6