Loading...
    • Guía del Desarrollador
    • Referencia de API
    • MCP
    • Recursos
    • Notas de la versión
    Search...
    ⌘K

    Primeros pasos

    Introducción a ClaudeInicio rápido

    Modelos y precios

    Descripción general de modelosElegir un modeloNovedades en Claude 4.5Migración a Claude 4.5Deprecaciones de modelosPrecios

    Crear con Claude

    Descripción general de característicasTrabajar con la API de MessagesVentanas de contextoMejores prácticas de prompting

    Capacidades

    Almacenamiento en caché de promptsEdición de contextoPensamiento extendidoTransmisión de MensajesProcesamiento por lotesCitasSoporte multilingüeConteo de tokensEmbeddingsVisiónSoporte para PDFAPI de ArchivosResultados de búsquedaComplemento de Google Sheets

    Herramientas

    Descripción generalCómo implementar el uso de herramientasUso de herramientas eficiente en tokensStreaming de herramientas de grano finoHerramienta BashHerramienta de ejecución de códigoHerramienta de uso de computadoraHerramienta de editor de textoHerramienta de obtención webHerramienta de búsqueda webHerramienta de memoria

    Habilidades del Agente

    Habilidades del AgenteComenzar con Agent Skills en la APIMejores prácticas para la creación de SkillsUso de Agent Skills con la API

    SDK de Agente

    Descripción general del Agent SDKReferencia del SDK del Agente - TypeScriptReferencia del SDK de Agent - Python

    Guías

    Entrada de StreamingManejo de PermisosGestión de SesionesAlojamiento del Agent SDKModificación de prompts del sistemaMCP en el SDKHerramientas PersonalizadasSubagentes en el SDKComandos Slash en el SDKHabilidades de Agente en el SDKSeguimiento de Costos y UsoListas de TareasPlugins en el SDK

    MCP en la API

    Conector MCPServidores MCP remotos

    Claude en plataformas de terceros

    Amazon BedrockVertex AI

    Ingeniería de prompts

    ResumenGenerador de promptsUsar plantillas de promptsMejorador de promptsSé claro y directoUsar ejemplos (prompting multishot)Deja que Claude piense (CoT)Usar etiquetas XMLDarle un rol a Claude (avisos del sistema)Prefill de la respuesta de ClaudeEncadena prompts complejosConsejos para contexto largoConsejos de pensamiento extendido

    Probar y evaluar

    Definir criterios de éxitoDesarrollar casos de pruebaUsando la Herramienta de EvaluaciónReducir la latencia

    Fortalecer protecciones

    Reducir las alucinacionesAumentar la consistencia de la salidaMitigar jailbreakshandle-streaming-refusalsReducir la filtración de promptsMantener a Claude en personaje

    Administración y monitoreo

    Descripción general de la API de administraciónAPI de Uso y CostoAPI de Análisis de Claude Code
    Console
    Capacidades

    Embeddings

    Los embeddings de texto son representaciones numéricas del texto que permiten medir la similitud semántica. Esta guía introduce los embeddings, sus aplicaciones y cómo usar modelos de embedding para tareas como búsqueda, recomendaciones y detección de anomalías.

    Antes de implementar embeddings

    Al seleccionar un proveedor de embeddings, hay varios factores que puedes considerar dependiendo de tus necesidades y preferencias:

    • Tamaño del conjunto de datos y especificidad del dominio: tamaño del conjunto de datos de entrenamiento del modelo y su relevancia para el dominio que deseas embebir. Los datos más grandes o más específicos del dominio generalmente producen mejores embeddings dentro del dominio
    • Rendimiento de inferencia: velocidad de búsqueda de embeddings y latencia de extremo a extremo. Esta es una consideración particularmente importante para implementaciones de producción a gran escala
    • Personalización: opciones para entrenamiento continuo en datos privados, o especialización de modelos para dominios muy específicos. Esto puede mejorar el rendimiento en vocabularios únicos

    Cómo obtener embeddings con Anthropic

    Anthropic no ofrece su propio modelo de embedding. Un proveedor de embeddings que tiene una amplia variedad de opciones y capacidades que abarcan todas las consideraciones anteriores es Voyage AI.

    Voyage AI crea modelos de embedding de vanguardia y ofrece modelos personalizados para dominios industriales específicos como finanzas y atención médica, o modelos ajustados a medida para clientes individuales.

    El resto de esta guía es para Voyage AI, pero te animamos a evaluar una variedad de proveedores de embeddings para encontrar el mejor ajuste para tu caso de uso específico.

    Modelos Disponibles

    Voyage recomienda usar los siguientes modelos de embedding de texto:

    ModeloLongitud de ContextoDimensión de EmbeddingDescripción
    voyage-3-large32,0001024 (predeterminado), 256, 512, 2048La mejor calidad de recuperación general y multilingüe. Ver publicación del blog para detalles.
    voyage-3.532,0001024 (predeterminado), 256, 512, 2048Optimizado para calidad de recuperación general y multilingüe. Ver publicación del blog para detalles.
    voyage-3.5-lite32,0001024 (predeterminado), 256, 512, 2048Optimizado para latencia y costo. Ver publicación del blog para detalles.
    voyage-code-332,0001024 (predeterminado), 256, 512, 2048Optimizado para recuperación de código. Ver publicación del blog para detalles.
    voyage-finance-232,0001024Optimizado para recuperación y RAG de finanzas. Ver publicación del blog para detalles.
    voyage-law-216,0001024Optimizado para recuperación y RAG legal y de contexto largo. También mejoró el rendimiento en todos los dominios. Ver publicación del blog para detalles.

    Adicionalmente, se recomiendan los siguientes modelos de embedding multimodal:

    ModeloLongitud de ContextoDimensión de EmbeddingDescripción
    voyage-multimodal-3320001024Modelo de embedding multimodal rico que puede vectorizar texto intercalado e imágenes ricas en contenido, como capturas de pantalla de PDFs, diapositivas, tablas, figuras y más. Ver publicación del blog para detalles.

    ¿Necesitas ayuda para decidir qué modelo de embedding de texto usar? Consulta las FAQ.

    Comenzando con Voyage AI

    Para acceder a los embeddings de Voyage:

    1. Regístrate en el sitio web de Voyage AI
    2. Obtén una clave API
    3. Establece la clave API como una variable de entorno para conveniencia:
    export VOYAGE_API_KEY="<tu clave secreta>"

    Puedes obtener los embeddings usando el paquete oficial de Python voyageai o solicitudes HTTP, como se describe a continuación.

    Biblioteca Python de Voyage

    El paquete voyageai se puede instalar usando el siguiente comando:

    pip install -U voyageai

    Luego, puedes crear un objeto cliente y comenzar a usarlo para embebir tus textos:

    import voyageai
    
    vo = voyageai.Client()
    # Esto usará automáticamente la variable de entorno VOYAGE_API_KEY.
    # Alternativamente, puedes usar vo = voyageai.Client(api_key="<tu clave secreta>")
    
    texts = ["Texto de muestra 1", "Texto de muestra 2"]
    
    result = vo.embed(texts, model="voyage-3.5", input_type="document")
    print(result.embeddings[0])
    print(result.embeddings[1])

    result.embeddings será una lista de dos vectores de embedding, cada uno conteniendo 1024 números de punto flotante. Después de ejecutar el código anterior, los dos embeddings se imprimirán en la pantalla:

    [-0.013131560757756233, 0.019828535616397858, ...]   # embedding para "Texto de muestra 1"
    [-0.0069352793507277966, 0.020878976210951805, ...]  # embedding para "Texto de muestra 2"

    Al crear los embeddings, puedes especificar algunos otros argumentos para la función embed().

    Para más información sobre el paquete Python de Voyage, consulta la documentación de Voyage.

    API HTTP de Voyage

    También puedes obtener embeddings solicitando la API HTTP de Voyage. Por ejemplo, puedes enviar una solicitud HTTP a través del comando curl en una terminal:

    curl https://api.voyageai.com/v1/embeddings \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $VOYAGE_API_KEY" \
      -d '{
        "input": ["Texto de muestra 1", "Texto de muestra 2"],
        "model": "voyage-3.5"
      }'

    La respuesta que obtendrías es un objeto JSON que contiene los embeddings y el uso de tokens:

    {
      "object": "list",
      "data": [
        {
          "embedding": [-0.013131560757756233, 0.019828535616397858, ...],
          "index": 0
        },
        {
          "embedding": [-0.0069352793507277966, 0.020878976210951805, ...],
          "index": 1
        }
      ],
      "model": "voyage-3.5",
      "usage": {
        "total_tokens": 10
      }
    }
    

    Para más información sobre la API HTTP de Voyage, consulta la documentación de Voyage.

    AWS Marketplace

    Los embeddings de Voyage están disponibles en AWS Marketplace. Las instrucciones para acceder a Voyage en AWS están disponibles aquí.

    Ejemplo de inicio rápido

    Ahora que sabemos cómo obtener embeddings, veamos un breve ejemplo.

    Supongamos que tenemos un pequeño corpus de seis documentos de los cuales recuperar

    documents = [
        "La dieta mediterránea enfatiza el pescado, el aceite de oliva y las verduras, se cree que reduce las enfermedades crónicas.",
        "La fotosíntesis en las plantas convierte la energía lumínica en glucosa y produce oxígeno esencial.",
        "Las innovaciones del siglo XX, desde radios hasta teléfonos inteligentes, se centraron en avances electrónicos.",
        "Los ríos proporcionan agua, irrigación y hábitat para especies acuáticas, vitales para los ecosistemas.",
        "La llamada de conferencia de Apple para discutir los resultados del cuarto trimestre fiscal y actualizaciones comerciales está programada para el jueves 2 de noviembre de 2023 a las 2:00 p.m. PT / 5:00 p.m. ET.",
        "Las obras de Shakespeare, como 'Hamlet' y 'Sueño de una noche de verano,' perduran en la literatura."
    ]
    

    Primero usaremos Voyage para convertir cada uno de ellos en un vector de embedding

    import voyageai
    
    vo = voyageai.Client()
    
    # Embebir los documentos
    doc_embds = vo.embed(
        documents, model="voyage-3.5", input_type="document"
    ).embeddings

    Los embeddings nos permitirán hacer búsqueda semántica / recuperación en el espacio vectorial. Dada una consulta de ejemplo,

    query = "¿Cuándo está programada la llamada de conferencia de Apple?"

    la convertimos en un embedding, y realizamos una búsqueda de vecino más cercano para encontrar el documento más relevante basado en la distancia en el espacio de embedding.

    import numpy as np
    
    # Embebir la consulta
    query_embd = vo.embed(
        [query], model="voyage-3.5", input_type="query"
    ).embeddings[0]
    
    # Calcular la similitud
    # Los embeddings de Voyage están normalizados a longitud 1, por lo tanto el producto punto
    # y la similitud coseno son lo mismo.
    similarities = np.dot(doc_embds, query_embd)
    
    retrieved_id = np.argmax(similarities)
    print(documents[retrieved_id])

    Nota que usamos input_type="document" e input_type="query" para embebir el documento y la consulta, respectivamente. Más especificación se puede encontrar aquí.

    La salida sería el 5º documento, que es efectivamente el más relevante para la consulta:

    La llamada de conferencia de Apple para discutir los resultados del cuarto trimestre fiscal y actualizaciones comerciales está programada para el jueves 2 de noviembre de 2023 a las 2:00 p.m. PT / 5:00 p.m. ET.

    Si estás buscando un conjunto detallado de libros de cocina sobre cómo hacer RAG con embeddings, incluyendo bases de datos vectoriales, consulta nuestro libro de cocina RAG.

    FAQ

    Precios

    Visita la página de precios de Voyage para los detalles de precios más actualizados.

    • Antes de implementar embeddings
    • Cómo obtener embeddings con Anthropic
    • Modelos Disponibles
    • Comenzando con Voyage AI
    • Biblioteca Python de Voyage
    • API HTTP de Voyage
    • AWS Marketplace
    • Ejemplo de inicio rápido
    • FAQ
    • Precios
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC