Loading...
  • ビルド
  • 管理
  • モデルと料金
  • クライアントSDK
  • APIリファレンス
Search...
⌘K
Log in
データレジデンシー
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
管理

データレジデンシー

地理的なコントロールを使用して、モデル推論が実行される場所とデータが保存される場所を管理します。

This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.

データレジデンシーコントロールを使用すると、データが処理および保存される場所を管理できます。このコントロールは2つの独立した設定によって管理されます:

  • 推論ジオ: モデル推論が実行される場所をリクエストごとに制御します。inference_geo APIパラメータまたはワークスペースのデフォルトとして設定します。
  • ワークスペースジオ: 保存中のデータが保存される場所と、エンドポイント処理(画像トランスコーディング、コード実行など)が行われる場所を制御します。Consoleのワークスペースレベルで設定します。

推論ジオ

inference_geo パラメータは、特定のAPIリクエストに対してモデル推論が実行される場所を制御します。任意の POST /v1/messages 呼び出しに追加します。

値説明
"global"デフォルト。推論は最適なパフォーマンスと可用性のために利用可能な任意の地域で実行される可能性があります。
"us"推論はUS ベースのインフラストラクチャでのみ実行されます。

API使用法

レスポンス

レスポンスの usage オブジェクトには、推論が実行された場所を示す inference_geo フィールドが含まれます:

Output
{
  "usage": {
    "input_tokens": 25,
    "output_tokens": 150,
    "inference_geo": "us"
  }
}

モデルの可用性

inference_geo パラメータはClaude Opus 4.6以降のすべてのモデルでサポートされています。Opus 4.6より前にリリースされた古いモデルはこのパラメータをサポートしていません。レガシーモデルで inference_geo を使用したリクエストは400エラーを返します。

inference_geo パラメータはClaude API(1P)でのみ利用可能です。サードパーティプラットフォーム(AWS Bedrock、Google Vertex AI)では、推論リージョンはエンドポイントURLまたは推論プロファイルによって決定されるため、inference_geo は適用されません。inference_geo パラメータはOpenAI SDK互換性エンドポイント経由でも利用できません。

ワークスペースレベルの制限

ワークスペース設定は、利用可能な推論ジオを制限することもサポートしています:

  • allowed_inference_geos: ワークスペースが使用できるジオを制限します。リクエストがこのリストにない inference_geo を指定する場合、APIはエラーを返します。
  • default_inference_geo: リクエストから inference_geo が省略された場合のフォールバックジオを設定します。個別のリクエストは inference_geo を明示的に設定することでこれをオーバーライドできます。

これらの設定はConsoleまたはAdmin APIの data_residency フィールドを通じて設定できます。

ワークスペースジオ

ワークスペースジオはワークスペース作成時に設定され、その後変更することはできません。現在、"us" が唯一利用可能なワークスペースジオです。

ワークスペースジオを設定するには、Consoleで新しいワークスペースを作成します:

  1. Settings > Workspaces に移動します。
  2. 新しいワークスペースを作成します。
  3. ワークスペースジオを選択します。

価格設定

データレジデンシーの価格はモデル世代によって異なります:

  • Claude Opus 4.6以降: US のみの推論(inference_geo: "us")は、すべてのトークン価格カテゴリ(入力トークン、出力トークン、キャッシュ書き込み、キャッシュ読み取り)で標準レートの1.1倍で価格設定されます。
  • グローバルルーティング(inference_geo: "global" または省略):標準価格が適用されます。
  • 古いモデル: inference_geo 設定に関係なく、既存の価格は変わりません。

この価格設定はClaude API(1P)にのみ適用されます。サードパーティプラットフォーム(AWS Bedrock、Google Vertex AI)には独自のリージョン価格があります。詳細は価格ページを参照してください。

Priority Tierを使用する場合、US のみの推論の1.1倍乗数は、Priority Tier容量に対してカウントされるトークン数にも影響します。inference_geo: "us" で消費される各トークンは、他の価格乗数(プロンプトキャッシングなど)がバーンダウンレートに影響する方法と一貫して、コミットされたTPMから1.1トークンを引き出します。

Batch APIサポート

inference_geo パラメータはBatch APIでサポートされています。バッチ内の各リクエストは独自の inference_geo 値を指定できます。

レガシーオプトアウトからの移行

組織が以前グローバルルーティングをオプトアウトして推論をUSに保つようにしていた場合、ワークスペースは自動的に allowed_inference_geos: ["us"] および default_inference_geo: "us" で設定されています。コード変更は不要です。既存のデータレジデンシー要件は、新しいジオコントロールを通じて引き続き適用されます。

変更内容

レガシーオプトアウトは、すべてのリクエストをUS ベースのインフラストラクチャに制限する組織レベルの設定でした。新しいデータレジデンシーコントロールは、これを2つのメカニズムに置き換えます:

  • リクエストごとのコントロール: inference_geo パラメータを使用すると、各APIコールで "us" または "global" を指定でき、リクエストレベルの柔軟性が得られます。
  • ワークスペースコントロール: Consoleの default_inference_geo および allowed_inference_geos 設定により、ワークスペース内のすべてのキーにジオポリシーを適用できます。

ワークスペースで何が起こったか

ワークスペースは自動的に移行されました:

レガシー設定新しい同等物
グローバルルーティングオプトアウト(US のみ)allowed_inference_geos: ["us"], default_inference_geo: "us"

ワークスペースのキーを使用するすべてのAPIリクエストは、US ベースのインフラストラクチャで実行され続けます。現在の動作を維持するために必要なアクションはありません。

グローバルルーティングを使用したい場合

データレジデンシー要件が変更され、パフォーマンスと可用性の向上のためにグローバルルーティングを利用したい場合は、ワークスペースの推論ジオ設定を更新して、許可されたジオに "global" を含め、default_inference_geo を "global" に設定します。詳細はワークスペースレベルの制限を参照してください。

価格への影響

レガシーモデルはこの移行の影響を受けません。新しいモデルの現在の価格については、価格設定を参照してください。

現在の制限事項

  • 共有レート制限: レート制限はすべてのジオ間で共有されます。
  • 推論ジオ: 起動時には "us" と "global" のみが利用可能です。追加のリージョンは時間とともに追加されます。
  • ワークスペースジオ: 現在、"us" のみが利用可能です。ワークスペース作成後、ワークスペースジオを変更することはできません。

次のステップ

価格設定

データレジデンシー価格の詳細を表示します。

ワークスペース

ワークスペース設定について詳しく学びます。

使用量とコストAPI

データレジデンシー別に使用量とコストを追跡します。

Was this page helpful?

  • API使用法
  • Batch APIサポート
client = anthropic.Anthropic()

response = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=1024,
    inference_geo="us",
    messages=[
        {"role": "user", "content": "Summarize the key points of this document."}
    ],
)

print(response.content[0].text)
# Check where inference actually ran
print(f"Inference geo: {response.usage.inference_geo}")