Loading...
    • Panduan Pengembang
    • Referensi API
    • MCP
    • Sumber daya
    • Catatan rilis
    Search...
    ⌘K
    Langkah pertama
    Pengenalan ClaudeMulai cepat
    Model & harga
    Ikhtisar modelMemilih modelYang baru di Claude 4.6Panduan migrasiPenghentian modelHarga
    Bangun dengan Claude
    Ikhtisar fiturMenggunakan Messages APIMenangani alasan berhentiPraktik terbaik prompting
    Manajemen konteks
    Jendela konteksKompresiPengeditan konteks
    Kemampuan
    Caching promptPemikiran diperpanjangPemikiran adaptifUpayaStreaming pesanPemrosesan batchKutipanDukungan multibahasaPenghitungan tokenEmbeddingsVisiDukungan PDFFiles APIHasil pencarianOutput terstruktur
    Alat
    IkhtisarCara mengimplementasikan penggunaan alatStreaming alat berbutir halusAlat BashAlat eksekusi kodePemanggilan alat terprogramAlat penggunaan komputerAlat editor teksAlat pengambilan webAlat pencarian webAlat memoriAlat pencarian alat
    Keterampilan Agen
    IkhtisarMulai cepatPraktik terbaikKeterampilan untuk perusahaanMenggunakan Keterampilan dengan API
    Agent SDK
    IkhtisarMulai cepatTypeScript SDKTypeScript V2 (pratinjau)Python SDKPanduan migrasi
    MCP di API
    Konektor MCPServer MCP jarak jauh
    Claude di platform pihak ketiga
    Amazon BedrockMicrosoft FoundryVertex AI
    Rekayasa prompt
    IkhtisarGenerator promptGunakan template promptPenyempurna promptJadilah jelas dan langsungGunakan contoh (prompting multishot)Biarkan Claude berpikir (CoT)Gunakan tag XMLBerikan Claude peran (prompt sistem)Rantai prompt kompleksTips konteks panjangTips pemikiran diperpanjang
    Uji & evaluasi
    Tentukan kriteria kesuksesanKembangkan kasus ujiMenggunakan alat evaluasiMengurangi latensi
    Perkuat penjaga
    Kurangi halusinasiTingkatkan konsistensi outputMitigasi jailbreakStreaming penolakanKurangi kebocoran promptJaga Claude tetap dalam karakter
    Administrasi dan pemantauan
    Ikhtisar Admin APIResidensi dataRuang kerjaAPI penggunaan dan biayaClaude Code Analytics APIRetensi data nol
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Administrasi dan pemantauan

    Residensi data

    Kelola di mana inferensi model berjalan dan di mana data disimpan dengan kontrol geografis.

    Kontrol residensi data memungkinkan Anda mengelola di mana data Anda diproses dan disimpan. Dua pengaturan independen mengatur hal ini:

    • Inference geo: Mengontrol di mana inferensi model berjalan, berdasarkan per-permintaan. Atur melalui parameter API inference_geo atau sebagai default workspace.
    • Workspace geo: Mengontrol di mana data disimpan saat istirahat dan di mana pemrosesan endpoint (transcoding gambar, eksekusi kode, dll.) terjadi. Dikonfigurasi di tingkat workspace di Console.

    Inference geo

    Parameter inference_geo mengontrol di mana inferensi model berjalan untuk permintaan API tertentu. Tambahkan ke panggilan POST /v1/messages apa pun.

    NilaiDeskripsi
    "global"Default. Inferensi dapat berjalan di geografi mana pun yang tersedia untuk kinerja dan ketersediaan optimal.
    "us"Inferensi hanya berjalan di infrastruktur berbasis AS.

    Penggunaan API

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "inference_geo": "us",
            "messages": [{
                "role": "user",
                "content": "Summarize the key points of this document."
            }]
        }'

    Respons

    Objek usage respons mencakup bidang inference_geo yang menunjukkan di mana inferensi berjalan:

    {
      "usage": {
        "input_tokens": 25,
        "output_tokens": 150,
        "inference_geo": "us"
      }
    }

    Ketersediaan model

    Parameter inference_geo didukung pada Claude Opus 4.6 dan semua model berikutnya. Model yang lebih lama yang dirilis sebelum Opus 4.6 tidak mendukung parameter ini. Permintaan dengan inference_geo pada model legacy mengembalikan kesalahan 400.

    Parameter inference_geo hanya tersedia di Claude API (1P). Di platform pihak ketiga (AWS Bedrock, Google Vertex AI), wilayah inferensi ditentukan oleh URL endpoint atau profil inferensi, jadi inference_geo tidak berlaku. Parameter inference_geo juga tidak tersedia melalui endpoint kompatibilitas OpenAI SDK.

    Pembatasan tingkat workspace

    Pengaturan workspace juga mendukung pembatasan inference geo mana yang tersedia:

    • allowed_inference_geos: Membatasi geo mana yang dapat digunakan workspace. Jika permintaan menentukan inference_geo yang tidak ada dalam daftar ini, API mengembalikan kesalahan.
    • default_inference_geo: Menetapkan geo fallback ketika inference_geo dihilangkan dari permintaan. Permintaan individual dapat mengganti ini dengan menetapkan inference_geo secara eksplisit.

    Pengaturan ini dapat dikonfigurasi melalui Console atau Admin API di bawah bidang data_residency.

    Workspace geo

    Workspace geo ditetapkan saat Anda membuat workspace dan tidak dapat diubah setelahnya. Saat ini, "us" adalah satu-satunya workspace geo yang tersedia.

    Untuk menetapkan workspace geo, buat workspace baru di Console:

    1. Buka Settings > Workspaces.
    2. Buat workspace baru.
    3. Pilih workspace geo.

    Harga

    Harga residensi data bervariasi menurut generasi model:

    • Claude Opus 4.6 dan lebih baru: Inferensi hanya AS (inference_geo: "us") dihargai pada tingkat 1,1x standar di semua kategori harga token (token input, token output, cache writes, dan cache reads).
    • Routing global (inference_geo: "global" atau dihilangkan): Harga standar berlaku.
    • Model yang lebih lama: Harga yang ada tidak berubah terlepas dari pengaturan inference_geo.

    Harga ini berlaku untuk Claude API (1P) saja. Platform pihak ketiga (AWS Bedrock, Google Vertex AI, Microsoft Foundry) memiliki harga regional mereka sendiri. Lihat halaman harga untuk detail.

    Jika Anda menggunakan Priority Tier, pengganda 1,1x untuk inferensi hanya AS juga mempengaruhi cara token dihitung terhadap kapasitas Priority Tier Anda. Setiap token yang dikonsumsi dengan inference_geo: "us" mengurangi 1,1 token dari TPM yang berkomitmen, konsisten dengan cara pengganda harga lainnya (prompt caching, long context) mempengaruhi tingkat burndown.

    Dukungan Batch API

    Parameter inference_geo didukung pada Batch API. Setiap permintaan dalam batch dapat menentukan nilai inference_geo miliknya sendiri.

    Migrasi dari opt-out legacy

    Jika organisasi Anda sebelumnya memilih untuk tidak menggunakan routing global untuk menjaga inferensi di AS, workspace Anda telah dikonfigurasi secara otomatis dengan allowed_inference_geos: ["us"] dan default_inference_geo: "us". Tidak ada perubahan kode yang diperlukan. Persyaratan residensi data yang ada terus ditegakkan melalui kontrol geo baru.

    Apa yang berubah

    Opt-out legacy adalah pengaturan tingkat organisasi yang membatasi semua permintaan ke infrastruktur berbasis AS. Kontrol residensi data baru menggantikan ini dengan dua mekanisme:

    • Kontrol per-permintaan: Parameter inference_geo memungkinkan Anda menentukan "us" atau "global" pada setiap panggilan API, memberikan Anda fleksibilitas tingkat permintaan.
    • Kontrol workspace: Pengaturan default_inference_geo dan allowed_inference_geos di Console memungkinkan Anda menerapkan kebijakan geo di semua kunci dalam workspace.

    Apa yang terjadi pada workspace Anda

    Workspace Anda dimigrasikan secara otomatis:

    Pengaturan legacySetara baru
    Opt-out routing global (hanya AS)allowed_inference_geos: ["us"], default_inference_geo: "us"

    Semua permintaan API menggunakan kunci dari workspace Anda terus berjalan di infrastruktur berbasis AS. Tidak ada tindakan yang diperlukan untuk mempertahankan perilaku saat ini Anda.

    Jika Anda ingin menggunakan routing global

    Jika persyaratan residensi data Anda telah berubah dan Anda ingin memanfaatkan routing global untuk kinerja dan ketersediaan yang lebih baik, perbarui pengaturan inference geo workspace Anda untuk menyertakan "global" dalam geo yang diizinkan dan atur default_inference_geo ke "global". Lihat Pembatasan tingkat workspace untuk detail.

    Dampak harga

    Model legacy tidak terpengaruh oleh migrasi ini. Untuk harga saat ini pada model yang lebih baru, lihat Harga.

    Batasan saat ini

    • Batas laju bersama: Batas laju dibagikan di semua geo.
    • Inference geo: Hanya "us" dan "global" yang tersedia saat peluncuran. Wilayah tambahan akan ditambahkan seiring waktu.
    • Workspace geo: Hanya "us" yang saat ini tersedia. Workspace geo tidak dapat diubah setelah pembuatan workspace.

    Langkah berikutnya

    Harga

    Lihat detail harga residensi data.

    Workspaces

    Pelajari tentang konfigurasi workspace.

    Usage and Cost API

    Lacak penggunaan dan biaya berdasarkan residensi data.

    Was this page helpful?

    • Inference geo
    • Penggunaan API
    • Respons
    • Ketersediaan model
    • Pembatasan tingkat workspace
    • Workspace geo
    • Harga
    • Dukungan Batch API
    • Migrasi dari opt-out legacy
    • Apa yang berubah
    • Apa yang terjadi pada workspace Anda
    • Jika Anda ingin menggunakan routing global
    • Dampak harga
    • Batasan saat ini
    • Langkah berikutnya