Loading...
  • Construir
  • Administración
  • Modelos y precios
  • SDKs de cliente
  • Referencia de API
Search...
⌘K
Log in
Residencia de datos
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
Administración

Residencia de datos

Administra dónde se ejecuta la inferencia del modelo y dónde se almacenan los datos con controles geográficos.

This feature is eligible for Zero Data Retention (ZDR). When your organization has a ZDR arrangement, data sent through this feature is not stored after the API response is returned.

Los controles de residencia de datos te permiten administrar dónde se procesan y almacenan tus datos. Dos configuraciones independientes rigen esto:

  • Geo de inferencia: Controla dónde se ejecuta la inferencia del modelo, por solicitud. Se establece a través del parámetro de API inference_geo o como valor predeterminado del espacio de trabajo.
  • Geo del espacio de trabajo: Controla dónde se almacenan los datos en reposo y dónde ocurre el procesamiento del punto final (transcodificación de imágenes, ejecución de código, etc.). Se configura a nivel del espacio de trabajo en la Consola.

Geo de inferencia

El parámetro inference_geo controla dónde se ejecuta la inferencia del modelo para una solicitud de API específica. Agrégalo a cualquier llamada POST /v1/messages.

ValorDescripción
"global"Predeterminado. La inferencia puede ejecutarse en cualquier geografía disponible para un rendimiento y disponibilidad óptimos.
"us"La inferencia se ejecuta solo en infraestructura basada en EE.UU.

Uso de API

client = anthropic.Anthropic()

response = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=1024,
    inference_geo="us",
    messages=[
        {"role": "user", "content": "Summarize the key points of this document."}
    ],
)

print(response.content[0].text)
# Check where inference actually ran
print(f"Inference geo: {response.usage.inference_geo}")

Respuesta

El objeto usage de la respuesta incluye un campo inference_geo que indica dónde se ejecutó la inferencia:

Output
{
  "usage": {
    "input_tokens": 25,
    "output_tokens": 150,
    "inference_geo": "us"
  }
}

Disponibilidad del modelo

El parámetro inference_geo es compatible con Claude Opus 4.6 y todos los modelos posteriores. Los modelos más antiguos lanzados antes de Opus 4.6 no admiten el parámetro. Las solicitudes con inference_geo en modelos heredados devuelven un error 400.

El parámetro inference_geo solo está disponible en la API de Claude (1P). En plataformas de terceros (AWS Bedrock, Google Vertex AI), la región de inferencia se determina por la URL del punto final o el perfil de inferencia, por lo que inference_geo no es aplicable. El parámetro inference_geo tampoco está disponible a través del punto final de compatibilidad del SDK de OpenAI.

Restricciones a nivel del espacio de trabajo

La configuración del espacio de trabajo también admite restringir qué geos de inferencia están disponibles:

  • allowed_inference_geos: Restringe qué geos puede usar un espacio de trabajo. Si una solicitud especifica un inference_geo que no está en esta lista, la API devuelve un error.
  • default_inference_geo: Establece el geo de reserva cuando inference_geo se omite de una solicitud. Las solicitudes individuales pueden anular esto estableciendo inference_geo explícitamente.

Estas configuraciones se pueden configurar a través de la Consola o la API de administración bajo el campo data_residency.

Geo del espacio de trabajo

El geo del espacio de trabajo se establece cuando creas un espacio de trabajo y no se puede cambiar después. Actualmente, "us" es el único geo de espacio de trabajo disponible.

Para establecer el geo del espacio de trabajo, crea un nuevo espacio de trabajo en la Consola:

  1. Ve a Configuración > Espacios de trabajo.
  2. Crea un nuevo espacio de trabajo.
  3. Selecciona el geo del espacio de trabajo.

Precios

Los precios de residencia de datos varían según la generación del modelo:

  • Claude Opus 4.6 y más reciente: La inferencia solo en EE.UU. (inference_geo: "us") tiene un precio de 1.1x la tarifa estándar en todas las categorías de precios de tokens (tokens de entrada, tokens de salida, escrituras de caché y lecturas de caché).
  • Enrutamiento global (inference_geo: "global" u omitido): Se aplica el precio estándar.
  • Modelos más antiguos: El precio existente no cambia independientemente de la configuración de inference_geo.

Este precio se aplica solo a la API de Claude (1P). Las plataformas de terceros (AWS Bedrock, Google Vertex AI) tienen sus propios precios regionales. Consulta la página de precios para obtener más detalles.

Si utilizas Priority Tier, el multiplicador de 1.1x para inferencia solo en EE.UU. también afecta cómo se cuentan los tokens contra tu capacidad de Priority Tier. Cada token consumido con inference_geo: "us" reduce 1.1 tokens de tu TPM comprometido, consistente con cómo otros multiplicadores de precios (como el almacenamiento en caché de solicitudes) afectan las tasas de consumo.

Soporte de API por lotes

El parámetro inference_geo es compatible con la API por lotes. Cada solicitud en un lote puede especificar su propio valor de inference_geo.

Migración desde exclusiones heredadas

Si tu organización anteriormente optó por no participar en el enrutamiento global para mantener la inferencia en EE.UU., tu espacio de trabajo se ha configurado automáticamente con allowed_inference_geos: ["us"] y default_inference_geo: "us". No se requieren cambios de código. Tus requisitos de residencia de datos existentes continúan siendo aplicados a través de los nuevos controles de geo.

Qué cambió

La exclusión heredada era una configuración a nivel de organización que restringía todas las solicitudes a infraestructura basada en EE.UU. Los nuevos controles de residencia de datos reemplazan esto con dos mecanismos:

  • Control por solicitud: El parámetro inference_geo te permite especificar "us" o "global" en cada llamada de API, dándote flexibilidad a nivel de solicitud.
  • Controles del espacio de trabajo: La configuración de default_inference_geo y allowed_inference_geos en la Consola te permite aplicar políticas de geo en todas las claves de un espacio de trabajo.

Qué sucedió con tu espacio de trabajo

Tu espacio de trabajo se migró automáticamente:

Configuración heredadaEquivalente nuevo
Exclusión de enrutamiento global (solo EE.UU.)allowed_inference_geos: ["us"], default_inference_geo: "us"

Todas las solicitudes de API que utilizan claves de tu espacio de trabajo continúan ejecutándose en infraestructura basada en EE.UU. No se requiere ninguna acción para mantener tu comportamiento actual.

Si deseas usar enrutamiento global

Si tus requisitos de residencia de datos han cambiado y deseas aprovechar el enrutamiento global para un mejor rendimiento y disponibilidad, actualiza la configuración de geo de inferencia de tu espacio de trabajo para incluir "global" en los geos permitidos y establece default_inference_geo en "global". Consulta Restricciones a nivel del espacio de trabajo para obtener más detalles.

Impacto en los precios

Los modelos heredados no se ven afectados por esta migración. Para los precios actuales en modelos más nuevos, consulta Precios.

Limitaciones actuales

  • Límites de velocidad compartidos: Los límites de velocidad se comparten en todos los geos.
  • Geo de inferencia: Solo "us" y "global" están disponibles en el lanzamiento. Se agregarán regiones adicionales con el tiempo.
  • Geo del espacio de trabajo: Solo "us" está disponible actualmente. El geo del espacio de trabajo no se puede cambiar después de la creación del espacio de trabajo.

Próximos pasos

Precios

Ver detalles de precios de residencia de datos.

Espacios de trabajo

Obtén más información sobre la configuración del espacio de trabajo.

API de uso y costo

Realiza un seguimiento del uso y los costos por residencia de datos.

Was this page helpful?

  • Geo de inferencia
  • Uso de API
  • Respuesta
  • Disponibilidad del modelo
  • Restricciones a nivel del espacio de trabajo
  • Geo del espacio de trabajo
  • Precios
  • Soporte de API por lotes
  • Migración desde exclusiones heredadas
  • Qué cambió
  • Qué sucedió con tu espacio de trabajo
  • Si deseas usar enrutamiento global
  • Impacto en los precios
  • Limitaciones actuales
  • Próximos pasos