This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.
データレジデンシーコントロールを使用すると、データが処理および保存される場所を管理できます。このコントロールは2つの独立した設定によって管理されます:
inference_geo APIパラメータまたはワークスペースのデフォルトとして設定します。inference_geo パラメータは、特定のAPIリクエストに対してモデル推論が実行される場所を制御します。任意の POST /v1/messages 呼び出しに追加します。
| 値 | 説明 |
|---|---|
"global" | デフォルト。推論は最適なパフォーマンスと可用性のために利用可能な任意の地域で実行される可能性があります。 |
"us" | 推論はUS ベースのインフラストラクチャでのみ実行されます。 |
レスポンスの usage オブジェクトには、推論が実行された場所を示す inference_geo フィールドが含まれます:
{
"usage": {
"input_tokens": 25,
"output_tokens": 150,
"inference_geo": "us"
}
}inference_geo パラメータはClaude Opus 4.6以降のすべてのモデルでサポートされています。Opus 4.6より前にリリースされた古いモデルはこのパラメータをサポートしていません。レガシーモデルで inference_geo を使用したリクエストは400エラーを返します。
inference_geo パラメータはClaude API(1P)でのみ利用可能です。サードパーティプラットフォーム(AWS Bedrock、Google Vertex AI)では、推論リージョンはエンドポイントURLまたは推論プロファイルによって決定されるため、inference_geo は適用されません。inference_geo パラメータはOpenAI SDK互換性エンドポイント経由でも利用できません。
ワークスペース設定は、利用可能な推論ジオを制限することもサポートしています:
allowed_inference_geos: ワークスペースが使用できるジオを制限します。リクエストがこのリストにない inference_geo を指定する場合、APIはエラーを返します。default_inference_geo: リクエストから inference_geo が省略された場合のフォールバックジオを設定します。個別のリクエストは inference_geo を明示的に設定することでこれをオーバーライドできます。これらの設定はConsoleまたはAdmin APIの data_residency フィールドを通じて設定できます。
ワークスペースジオはワークスペース作成時に設定され、その後変更することはできません。現在、"us" が唯一利用可能なワークスペースジオです。
ワークスペースジオを設定するには、Consoleで新しいワークスペースを作成します:
データレジデンシーの価格はモデル世代によって異なります:
inference_geo: "us")は、すべてのトークン価格カテゴリ(入力トークン、出力トークン、キャッシュ書き込み、キャッシュ読み取り)で標準レートの1.1倍で価格設定されます。inference_geo: "global" または省略):標準価格が適用されます。inference_geo 設定に関係なく、既存の価格は変わりません。この価格設定はClaude API(1P)にのみ適用されます。サードパーティプラットフォーム(AWS Bedrock、Google Vertex AI)には独自のリージョン価格があります。詳細は価格ページを参照してください。
Priority Tierを使用する場合、US のみの推論の1.1倍乗数は、Priority Tier容量に対してカウントされるトークン数にも影響します。inference_geo: "us" で消費される各トークンは、他の価格乗数(プロンプトキャッシングなど)がバーンダウンレートに影響する方法と一貫して、コミットされたTPMから1.1トークンを引き出します。
inference_geo パラメータはBatch APIでサポートされています。バッチ内の各リクエストは独自の inference_geo 値を指定できます。
組織が以前グローバルルーティングをオプトアウトして推論をUSに保つようにしていた場合、ワークスペースは自動的に allowed_inference_geos: ["us"] および default_inference_geo: "us" で設定されています。コード変更は不要です。既存のデータレジデンシー要件は、新しいジオコントロールを通じて引き続き適用されます。
レガシーオプトアウトは、すべてのリクエストをUS ベースのインフラストラクチャに制限する組織レベルの設定でした。新しいデータレジデンシーコントロールは、これを2つのメカニズムに置き換えます:
inference_geo パラメータを使用すると、各APIコールで "us" または "global" を指定でき、リクエストレベルの柔軟性が得られます。default_inference_geo および allowed_inference_geos 設定により、ワークスペース内のすべてのキーにジオポリシーを適用できます。ワークスペースは自動的に移行されました:
| レガシー設定 | 新しい同等物 |
|---|---|
| グローバルルーティングオプトアウト(US のみ) | allowed_inference_geos: ["us"], default_inference_geo: "us" |
ワークスペースのキーを使用するすべてのAPIリクエストは、US ベースのインフラストラクチャで実行され続けます。現在の動作を維持するために必要なアクションはありません。
データレジデンシー要件が変更され、パフォーマンスと可用性の向上のためにグローバルルーティングを利用したい場合は、ワークスペースの推論ジオ設定を更新して、許可されたジオに "global" を含め、default_inference_geo を "global" に設定します。詳細はワークスペースレベルの制限を参照してください。
レガシーモデルはこの移行の影響を受けません。新しいモデルの現在の価格については、価格設定を参照してください。
"us" と "global" のみが利用可能です。追加のリージョンは時間とともに追加されます。"us" のみが利用可能です。ワークスペース作成後、ワークスペースジオを変更することはできません。Was this page helpful?
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-opus-4-7",
max_tokens=1024,
inference_geo="us",
messages=[
{"role": "user", "content": "Summarize the key points of this document."}
],
)
print(response.content[0].text)
# Check where inference actually ran
print(f"Inference geo: {response.usage.inference_geo}")