データレジデンシー制御により、データの処理場所と保存場所を管理できます。これは2つの独立した設定によって制御されます:
inference_geo APIパラメータまたはワークスペースのデフォルトとして設定します。inference_geo パラメータは、特定のAPIリクエストに対してモデル推論の実行場所を制御します。任意の POST /v1/messages 呼び出しに追加できます。
| 値 | 説明 |
|---|---|
"global" | デフォルト。最適なパフォーマンスと可用性のために、利用可能な任意の地域で推論が実行される場合があります。 |
"us" | 推論は米国ベースのインフラストラクチャでのみ実行されます。 |
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data '{
"model": "claude-opus-4-6",
"max_tokens": 1024,
"inference_geo": "us",
"messages": [{
"role": "user",
"content": "Summarize the key points of this document."
}]
}'レスポンスの usage オブジェクトには、推論が実行された場所を示す inference_geo フィールドが含まれます:
{
"usage": {
"input_tokens": 25,
"output_tokens": 150,
"inference_geo": "us"
}
}inference_geo パラメータは Claude Opus 4.6 およびそれ以降のすべてのモデルでサポートされています。Opus 4.6 より前にリリースされた古いモデルはこのパラメータをサポートしていません。レガシーモデルに対して inference_geo を指定したリクエストは400エラーを返します。
inference_geo パラメータは Claude API(1P)でのみ利用可能です。サードパーティプラットフォーム(AWS Bedrock、Google Vertex AI)では、推論リージョンはエンドポイントURLまたは推論プロファイルによって決定されるため、inference_geo は適用されません。inference_geo パラメータは OpenAI SDK互換エンドポイントでも利用できません。
ワークスペース設定では、利用可能な推論ジオの制限もサポートしています:
allowed_inference_geos: ワークスペースが使用できるジオを制限します。リクエストがこのリストにない inference_geo を指定した場合、APIはエラーを返します。default_inference_geo: リクエストから inference_geo が省略された場合のフォールバックジオを設定します。個々のリクエストは inference_geo を明示的に設定することでこれをオーバーライドできます。これらの設定は、Consoleまたは data_residency フィールドの下にあるAdmin APIを通じて設定できます。
ワークスペースジオはワークスペース作成時に設定され、その後変更することはできません。現在、"us" が唯一利用可能なワークスペースジオです。
ワークスペースジオを設定するには、Consoleで新しいワークスペースを作成します:
データレジデンシーの料金はモデル世代によって異なります:
inference_geo: "us")は、すべてのトークン料金カテゴリ(入力トークン、出力トークン、キャッシュ書き込み、キャッシュ読み取り)で標準料金の1.1倍で課金されます。inference_geo: "global" または省略時): 標準料金が適用されます。inference_geo 設定に関係なく、既存の料金は変更されません。この料金は Claude API(1P)にのみ適用されます。サードパーティプラットフォーム(AWS Bedrock、Google Vertex AI、Microsoft Foundry)には独自のリージョン料金があります。詳細は料金ページをご覧ください。
Priority Tierを使用している場合、米国のみの推論に対する1.1倍の乗数は、Priority Tierの容量に対するトークンのカウント方法にも影響します。inference_geo: "us" で消費される各トークンは、コミットされたTPMから1.1トークンを消費します。これは、他の料金乗数(プロンプトキャッシング、ロングコンテキスト)がバーンダウンレートに影響する方法と一致しています。
inference_geo パラメータは Batch API でサポートされています。バッチ内の各リクエストは独自の inference_geo 値を指定できます。
組織が以前にグローバルルーティングをオプトアウトして推論を米国内に保持していた場合、ワークスペースは自動的に allowed_inference_geos: ["us"] および default_inference_geo: "us" で設定されています。コードの変更は必要ありません。既存のデータレジデンシー要件は、新しいジオ制御を通じて引き続き適用されます。
レガシーオプトアウトは、すべてのリクエストを米国ベースのインフラストラクチャに制限する組織レベルの設定でした。新しいデータレジデンシー制御は、これを2つのメカニズムに置き換えます:
inference_geo パラメータにより、各API呼び出しで "us" または "global" を指定でき、リクエストレベルの柔軟性が得られます。default_inference_geo および allowed_inference_geos 設定により、ワークスペース内のすべてのキーにジオポリシーを適用できます。ワークスペースは自動的に移行されました:
| レガシー設定 | 新しい同等設定 |
|---|---|
| グローバルルーティングオプトアウト(米国のみ) | allowed_inference_geos: ["us"]、default_inference_geo: "us" |
ワークスペースのキーを使用するすべてのAPIリクエストは、引き続き米国ベースのインフラストラクチャで実行されます。現在の動作を維持するためのアクションは必要ありません。
データレジデンシー要件が変更され、パフォーマンスと可用性の向上のためにグローバルルーティングを活用したい場合は、ワークスペースの推論ジオ設定を更新して、許可されたジオに "global" を含め、default_inference_geo を "global" に設定してください。詳細はワークスペースレベルの制限をご覧ください。
レガシーモデルはこの移行の影響を受けません。新しいモデルの現在の料金については、料金をご覧ください。
"us" と "global" のみが利用可能です。追加のリージョンは今後追加される予定です。"us" のみが利用可能です。ワークスペースジオはワークスペース作成後に変更できません。Was this page helpful?