Loading...
    • Guía para desarrolladores
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K
    Primeros pasos
    Introducción a ClaudeInicio rápido
    Modelos y precios
    Descripción general de modelosElegir un modeloNovedades en Claude 4.6Guía de migraciónModelos deprecadosPrecios
    Crear con Claude
    Descripción general de característicasUsar la API de MessagesManejar razones de paradaMejores prácticas de prompting
    Gestión de contexto
    Ventanas de contextoCompactaciónEdición de contexto
    Capacidades
    Almacenamiento en caché de promptsPensamiento extendidoPensamiento adaptativoEsfuerzoStreaming de MessagesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte de PDFAPI de FilesResultados de búsquedaSalidas estructuradas
    Herramientas
    Descripción generalCómo implementar el uso de herramientasStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoLlamada de herramientas programáticaHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de búsqueda webHerramienta de búsqueda webHerramienta de memoriaHerramienta de búsqueda de herramientas
    Agent Skills
    Descripción generalInicio rápidoMejores prácticasSkills para empresasUsar Skills con la API
    Agent SDK
    Descripción generalInicio rápidoSDK de TypeScriptTypeScript V2 (vista previa)SDK de PythonGuía de migración
    MCP en la API
    Conector MCPServidores MCP remotos
    Claude en plataformas de terceros
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingeniería de prompts
    Descripción generalGenerador de promptsUsar plantillas de promptsMejorador de promptsSer claro y directoUsar ejemplos (prompting multishot)Dejar que Claude piense (CoT)Usar etiquetas XMLDar a Claude un rol (prompts del sistema)Encadenar prompts complejosConsejos de contexto largoConsejos de pensamiento extendido
    Probar y evaluar
    Definir criterios de éxitoDesarrollar casos de pruebaUsar la herramienta de evaluaciónReducir latencia
    Fortalecer protecciones
    Reducir alucinacionesAumentar consistencia de salidaMitigar ataques de jailbreakRechazos de streamingReducir fuga de promptsMantener a Claude en personaje
    Administración y monitoreo
    Descripción general de Admin APIResidencia de datosEspacios de trabajoAPI de uso y costosAPI de Claude Code AnalyticsRetención de datos cero
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Administración y monitoreo

    Residencia de datos

    Administra dónde se ejecuta la inferencia del modelo y dónde se almacenan los datos con controles geográficos.

    Los controles de residencia de datos te permiten administrar dónde se procesan y almacenan tus datos. Dos configuraciones independientes rigen esto:

    • Geo de inferencia: Controla dónde se ejecuta la inferencia del modelo, por solicitud. Se establece a través del parámetro de API inference_geo o como valor predeterminado del espacio de trabajo.
    • Geo del espacio de trabajo: Controla dónde se almacenan los datos en reposo y dónde ocurre el procesamiento del punto final (transcodificación de imágenes, ejecución de código, etc.). Se configura a nivel del espacio de trabajo en la Consola.

    Geo de inferencia

    El parámetro inference_geo controla dónde se ejecuta la inferencia del modelo para una solicitud de API específica. Agrégalo a cualquier llamada POST /v1/messages.

    ValorDescripción
    "global"Predeterminado. La inferencia puede ejecutarse en cualquier geografía disponible para un rendimiento y disponibilidad óptimos.
    "us"La inferencia se ejecuta solo en infraestructura basada en EE.UU.

    Uso de API

    curl https://api.anthropic.com/v1/messages \
        --header "x-api-key: $ANTHROPIC_API_KEY" \
        --header "anthropic-version: 2023-06-01" \
        --header "content-type: application/json" \
        --data '{
            "model": "claude-opus-4-6",
            "max_tokens": 1024,
            "inference_geo": "us",
            "messages": [{
                "role": "user",
                "content": "Summarize the key points of this document."
            }]
        }'

    Respuesta

    El objeto usage de la respuesta incluye un campo inference_geo que indica dónde se ejecutó la inferencia:

    {
      "usage": {
        "input_tokens": 25,
        "output_tokens": 150,
        "inference_geo": "us"
      }
    }

    Disponibilidad del modelo

    El parámetro inference_geo es compatible con Claude Opus 4.6 y todos los modelos posteriores. Los modelos más antiguos lanzados antes de Opus 4.6 no admiten el parámetro. Las solicitudes con inference_geo en modelos heredados devuelven un error 400.

    El parámetro inference_geo solo está disponible en la API de Claude (1P). En plataformas de terceros (AWS Bedrock, Google Vertex AI), la región de inferencia se determina por la URL del punto final o el perfil de inferencia, por lo que inference_geo no es aplicable. El parámetro inference_geo tampoco está disponible a través del punto final de compatibilidad del SDK de OpenAI.

    Restricciones a nivel del espacio de trabajo

    La configuración del espacio de trabajo también admite restringir qué geos de inferencia están disponibles:

    • allowed_inference_geos: Restringe qué geos puede usar un espacio de trabajo. Si una solicitud especifica un inference_geo que no está en esta lista, la API devuelve un error.
    • default_inference_geo: Establece el geo de respaldo cuando inference_geo se omite de una solicitud. Las solicitudes individuales pueden anular esto estableciendo inference_geo explícitamente.

    Estas configuraciones se pueden configurar a través de la Consola o la API de administración bajo el campo data_residency.

    Geo del espacio de trabajo

    El geo del espacio de trabajo se establece cuando creas un espacio de trabajo y no se puede cambiar después. Actualmente, "us" es el único geo de espacio de trabajo disponible.

    Para establecer el geo del espacio de trabajo, crea un nuevo espacio de trabajo en la Consola:

    1. Ve a Configuración > Espacios de trabajo.
    2. Crea un nuevo espacio de trabajo.
    3. Selecciona el geo del espacio de trabajo.

    Precios

    Los precios de residencia de datos varían según la generación del modelo:

    • Claude Opus 4.6 y más reciente: La inferencia solo en EE.UU. (inference_geo: "us") se cotiza a 1.1x la tarifa estándar en todas las categorías de precios de tokens (tokens de entrada, tokens de salida, escrituras de caché y lecturas de caché).
    • Enrutamiento global (inference_geo: "global" u omitido): Se aplica precios estándar.
    • Modelos más antiguos: Los precios existentes no cambian independientemente de la configuración de inference_geo.

    Este precio se aplica solo a la API de Claude (1P). Las plataformas de terceros (AWS Bedrock, Google Vertex AI, Microsoft Foundry) tienen sus propios precios regionales. Consulta la página de precios para obtener detalles.

    Si usas Priority Tier, el multiplicador 1.1x para inferencia solo en EE.UU. también afecta cómo se cuentan los tokens contra tu capacidad de Priority Tier. Cada token consumido con inference_geo: "us" reduce 1.1 tokens de tu TPM comprometido, consistente con cómo otros multiplicadores de precios (almacenamiento en caché de indicaciones, contexto largo) afectan las tasas de consumo.

    Soporte de API de lotes

    El parámetro inference_geo es compatible con la API de lotes. Cada solicitud en un lote puede especificar su propio valor de inference_geo.

    Migración desde exclusiones heredadas

    Si tu organización anteriormente optó por no participar en el enrutamiento global para mantener la inferencia en EE.UU., tu espacio de trabajo ha sido configurado automáticamente con allowed_inference_geos: ["us"] y default_inference_geo: "us". No se requieren cambios de código. Tus requisitos de residencia de datos existentes continúan siendo aplicados a través de los nuevos controles de geo.

    Qué cambió

    La exclusión heredada era una configuración a nivel de organización que restringía todas las solicitudes a infraestructura basada en EE.UU. Los nuevos controles de residencia de datos reemplazan esto con dos mecanismos:

    • Control por solicitud: El parámetro inference_geo te permite especificar "us" o "global" en cada llamada de API, dándote flexibilidad a nivel de solicitud.
    • Controles del espacio de trabajo: La configuración de default_inference_geo y allowed_inference_geos en la Consola te permite aplicar políticas de geo en todas las claves de un espacio de trabajo.

    Qué sucedió con tu espacio de trabajo

    Tu espacio de trabajo fue migrado automáticamente:

    Configuración heredadaEquivalente nuevo
    Exclusión de enrutamiento global (solo EE.UU.)allowed_inference_geos: ["us"], default_inference_geo: "us"

    Todas las solicitudes de API que usan claves de tu espacio de trabajo continúan ejecutándose en infraestructura basada en EE.UU. No se requiere ninguna acción para mantener tu comportamiento actual.

    Si deseas usar enrutamiento global

    Si tus requisitos de residencia de datos han cambiado y deseas aprovechar el enrutamiento global para un mejor rendimiento y disponibilidad, actualiza la configuración de geo de inferencia de tu espacio de trabajo para incluir "global" en los geos permitidos y establece default_inference_geo en "global". Consulta Restricciones a nivel del espacio de trabajo para obtener detalles.

    Impacto en los precios

    Los modelos heredados no se ven afectados por esta migración. Para los precios actuales en modelos más nuevos, consulta Precios.

    Limitaciones actuales

    • Límites de velocidad compartidos: Los límites de velocidad se comparten en todos los geos.
    • Geo de inferencia: Solo "us" y "global" están disponibles en el lanzamiento. Se agregarán regiones adicionales con el tiempo.
    • Geo del espacio de trabajo: Solo "us" está disponible actualmente. El geo del espacio de trabajo no se puede cambiar después de la creación del espacio de trabajo.

    Próximos pasos

    Precios

    Ver detalles de precios de residencia de datos.

    Espacios de trabajo

    Obtén más información sobre la configuración del espacio de trabajo.

    API de uso y costo

    Realiza un seguimiento del uso y los costos por residencia de datos.

    Was this page helpful?

    • Geo de inferencia
    • Uso de API
    • Respuesta
    • Disponibilidad del modelo
    • Restricciones a nivel del espacio de trabajo
    • Geo del espacio de trabajo
    • Precios
    • Soporte de API de lotes
    • Migración desde exclusiones heredadas
    • Qué cambió
    • Qué sucedió con tu espacio de trabajo
    • Si deseas usar enrutamiento global
    • Impacto en los precios
    • Limitaciones actuales
    • Próximos pasos