Loading...
  • Construir
  • Administración
  • Modelos y precios
  • SDKs de cliente
  • Referencia de API
Search...
⌘K
Log in
Vertex AI
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
Administración/Plataformas de terceros

Claude en Vertex AI

Los modelos Claude de Anthropic ahora están disponibles de forma general a través de Vertex AI.

La API de Vertex para acceder a Claude es casi idéntica a la API de Mensajes y admite todas las mismas opciones, con dos diferencias clave:

  • En Vertex, model no se pasa en el cuerpo de la solicitud. En su lugar, se especifica en la URL del punto de conexión de Google Cloud.
  • En Vertex, anthropic_version se pasa en el cuerpo de la solicitud (en lugar de como encabezado) y debe establecerse en el valor vertex-2023-10-16.

Vertex también es compatible con los SDK de cliente oficiales de Anthropic. Esta guía te muestra cómo hacer una solicitud a Claude en Vertex AI usando uno de los SDK de cliente de Anthropic.

Ten en cuenta que esta guía asume que ya tienes un proyecto de GCP que puede usar Vertex AI. Consulta usar los modelos Claude 3 de Anthropic para obtener más información sobre la configuración requerida, así como un tutorial completo.

Instalar un SDK para acceder a Vertex AI

Primero, instala el SDK de cliente de Anthropic para tu lenguaje de programación preferido.

Acceder a Vertex AI

Disponibilidad de modelos

Ten en cuenta que la disponibilidad del modelo Anthropic varía según la región. Busca "Claude" en el Vertex AI Model Garden o ve a Usar Claude 3 para obtener la información más reciente.

ID de modelo de API

ModeloID de modelo de API de Vertex AI
Claude Opus 4.7claude-opus-4-7
Claude Opus 4.6claude-opus-4-6
Claude Sonnet 4.6claude-sonnet-4-6
Claude Sonnet 4.5claude-sonnet-4-5@20250929
Claude Sonnet 4 ⚠️claude-sonnet-4@20250514
Claude Sonnet 3.7 ⚠️claude-3-7-sonnet@20250219
Claude Opus 4.5claude-opus-4-5@20251101
Claude Opus 4.1claude-opus-4-1@20250805
Claude Opus 4 ⚠️claude-opus-4@20250514
Claude Haiku 4.5claude-haiku-4-5@20251001
Claude Haiku 3.5 ⚠️claude-3-5-haiku@20241022
Claude Haiku 3 ⚠️claude-3-haiku@20240307

Hacer solicitudes

Antes de ejecutar solicitudes, es posible que debas ejecutar gcloud auth application-default login para autenticarte con GCP.

Los siguientes ejemplos muestran cómo generar texto desde Claude en Vertex AI:

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "global"

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Consulta los SDK de cliente y la documentación oficial de Vertex AI para obtener más detalles.

Claude también está disponible a través de Amazon Bedrock y Microsoft Foundry.

Registro de actividad

Vertex proporciona un servicio de registro de solicitud-respuesta que permite a los clientes registrar los mensajes y completaciones asociados con tu uso.

Anthropic recomienda que registres tu actividad en al menos una base móvil de 30 días para entender tu actividad e investigar cualquier posible mal uso.

Activar este servicio no le da a Google ni a Anthropic acceso a tu contenido.

Compatibilidad de características

Para todas las características actualmente compatibles en Vertex AI, consulta descripción general de características de API.

Ventana de contexto

Claude Opus 4.7, Claude Opus 4.6 y Claude Sonnet 4.6 tienen una ventana de contexto de 1M de tokens en Vertex AI. Otros modelos de Claude, incluidos Sonnet 4.5 y Sonnet 4 (deprecado), tienen una ventana de contexto de 200k tokens.

Vertex AI limita las cargas útiles de solicitud a 30 MB. Al enviar documentos grandes o muchas imágenes, es posible que alcances este límite antes del límite de tokens.

Puntos de conexión globales, multirregionales y regionales

Google Vertex AI ofrece tres tipos de puntos de conexión:

  • Puntos de conexión globales: Enrutamiento dinámico para máxima disponibilidad
  • Puntos de conexión multirregionales: Enrutamiento dinámico dentro de un área geográfica (por ejemplo, Estados Unidos o la Unión Europea) para residencia de datos con alta disponibilidad
  • Puntos de conexión regionales: Enrutamiento de datos garantizado a través de regiones geográficas específicas

Los puntos de conexión regionales y multirregionales incluyen una prima de precios del 10% sobre los puntos de conexión globales.

Esto se aplica solo a Claude Sonnet 4.5 y modelos futuros. Los modelos más antiguos (Claude Sonnet 4 (deprecado), Opus 4 (deprecado) y anteriores) mantienen sus estructuras de precios existentes.

Cuándo usar cada opción

Puntos de conexión globales (recomendado):

  • Proporcionan máxima disponibilidad y tiempo de actividad
  • Enrutan dinámicamente las solicitudes a regiones con capacidad disponible
  • Sin prima de precios
  • Mejor para aplicaciones donde la residencia de datos es flexible
  • Solo admite tráfico de pago por uso (el rendimiento aprovisionado requiere puntos de conexión regionales)

Puntos de conexión multirregionales:

  • Enrutan dinámicamente las solicitudes entre regiones dentro de un área geográfica (actualmente us y eu)
  • Útil cuando necesitas residencia de datos dentro de una geografía amplia pero deseas mayor disponibilidad que una sola región
  • Prima de precios del 10% sobre los puntos de conexión globales
  • Solo admite tráfico de pago por uso (el rendimiento aprovisionado requiere puntos de conexión regionales)

Puntos de conexión regionales:

  • Enrutan el tráfico a través de regiones geográficas específicas
  • Requerido para residencia de datos de una sola región, mandatos de cumplimiento estricto o rendimiento aprovisionado
  • Admiten tanto tráfico de pago por uso como rendimiento aprovisionado
  • La prima de precios del 10% refleja los costos de infraestructura para capacidad regional dedicada

Implementación

Usando puntos de conexión globales (recomendado):

Establece el parámetro region en "global" al inicializar el cliente:

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "global"

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Usando puntos de conexión multirregionales:

Establece el parámetro region en un identificador multirregional: "us" para Estados Unidos o "eu" para la Unión Europea. El SDK enruta las solicitudes al punto de conexión multirregional correspondiente (https://aiplatform.us.rep.googleapis.com o https://aiplatform.eu.rep.googleapis.com), que equilibra dinámicamente el tráfico entre regiones dentro de esa geografía.

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "us"  # Multi-region identifier: "us" or "eu"

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Usando puntos de conexión regionales:

Especifica una región específica como "us-east1" o "europe-west1":

from anthropic import AnthropicVertex

project_id = "MY_PROJECT_ID"
region = "us-east1"  # Specify a specific region

client = AnthropicVertex(project_id=project_id, region=region)

message = client.messages.create(
    model="claude-opus-4-7",
    max_tokens=100,
    messages=[
        {
            "role": "user",
            "content": "Hey Claude!",
        }
    ],
)
print(message)

Claude Mythos Preview es una vista previa de investigación disponible para clientes invitados en Google Vertex AI. Para obtener más información, consulta Project Glasswing.

Recursos adicionales

  • Precios de Google Vertex AI: cloud.google.com/vertex-ai/generative-ai/pricing
  • Documentación de modelos Claude: Claude en Vertex AI
  • Publicación del blog de Google: Punto de conexión global para modelos Claude
  • Detalles de precios de Anthropic: Documentación de precios

Was this page helpful?

  • Instalar un SDK para acceder a Vertex AI
  • Acceder a Vertex AI
  • Disponibilidad de modelos
  • Hacer solicitudes
  • Registro de actividad
  • Compatibilidad de características
  • Ventana de contexto
  • Puntos de conexión globales, multirregionales y regionales
  • Cuándo usar cada opción
  • Implementación
  • Recursos adicionales