Loading...
    • Créer
    • Admin
    • Modèles et tarification
    • SDK clients
    • Référence API
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesCompétence Claude APIGérer les raisons d'arrêt
    Capacités du modèle
    Extended thinkingAdaptive thinkingEffortBudgets de tâches (bêta)Mode rapide (bêta : aperçu de recherche)Sorties structuréesCitationsMessages en continuTraitement par lotsRésultats de rechercheRefus en continuSupport multilingueEmbeddings
    Outils
    AperçuFonctionnement de l'utilisation des outilsOutil de recherche webOutil de récupération webOutil d'exécution de codeOutil AdvisorOutil MemoryOutil BashOutil Computer useOutil Éditeur de texte
    Infrastructure des outils
    Référence des outilsRecherche d'outilsAppel programmatique des outilsStreaming granulaire des outils
    Gestion du contexte
    Fenêtres de contexteCompactionÉdition du contexteMise en cache des invitesComptage des tokens
    Travailler avec des fichiers
    API FilesSupport PDFImages et vision
    Compétences
    AperçuDémarrage rapideMeilleures pratiquesCompétences pour l'entrepriseCompétences dans l'API
    MCP
    Serveurs MCP distantsConnecteur MCP
    Ingénierie des invites
    AperçuMeilleures pratiques d'invitesOutils d'invites Console
    Tester et évaluer
    Définir le succès et créer des évaluationsUtiliser l'outil d'évaluation dans ConsoleRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRéduire les fuites d'invites
    Ressources
    Glossaire
    Notes de version
    Claude Platform
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Capacités du modèle

    Embeddings

    Les embeddings de texte sont des représentations numériques du texte qui permettent de mesurer la similarité sémantique. Ce guide présente les embeddings, leurs applications et comment utiliser les modèles d'embedding pour des tâches telles que la recherche, les recommandations et la détection d'anomalies.

    Was this page helpful?

    • Avant d'implémenter les embeddings
    • Comment obtenir des embeddings avec Anthropic
    • Modèles disponibles
    • Démarrage avec Voyage AI
    • Bibliothèque Python Voyage
    • API HTTP Voyage
    • AWS Marketplace
    • Exemple de démarrage rapide
    • FAQ
    • Tarification

    Avant d'implémenter les embeddings

    Lors du choix d'un fournisseur d'embeddings, il y a plusieurs facteurs que vous pouvez considérer en fonction de vos besoins et préférences :

    • Taille du dataset et spécificité du domaine : taille du dataset d'entraînement du modèle et sa pertinence pour le domaine que vous souhaitez intégrer. Des données plus volumineuses ou plus spécifiques au domaine produisent généralement de meilleurs embeddings dans le domaine
    • Performance d'inférence : vitesse de recherche d'embedding et latence de bout en bout. C'est une considération particulièrement importante pour les déploiements en production à grande échelle
    • Personnalisation : options pour l'entraînement continu sur des données privées, ou spécialisation des modèles pour des domaines très spécifiques. Cela peut améliorer les performances sur des vocabulaires uniques

    Comment obtenir des embeddings avec Anthropic

    Anthropic n'offre pas son propre modèle d'embedding. Un fournisseur d'embeddings qui offre une grande variété d'options et de capacités englobant toutes les considérations ci-dessus est Voyage AI.

    Voyage AI crée des modèles d'embedding de pointe et offre des modèles personnalisés pour des domaines industriels spécifiques tels que la finance et la santé, ou des modèles affinés sur mesure pour des clients individuels.

    Le reste de ce guide concerne Voyage AI, mais vous devriez évaluer une variété de fournisseurs d'embeddings pour trouver le meilleur ajustement pour votre cas d'usage spécifique.

    Modèles disponibles

    Voyage recommande d'utiliser les modèles d'embedding de texte suivants :

    ModèleLongueur du contexteDimension d'embeddingDescription
    voyage-3-large32 0001024 (par défaut), 256, 512, 2048La meilleure qualité de récupération généraliste et multilingue. Voir le billet de blog pour plus de détails.
    voyage-3.532 0001024 (par défaut), 256, 512, 2048Optimisé pour la qualité de récupération généraliste et multilingue. Voir le billet de blog pour plus de détails.
    voyage-3.5-lite32 0001024 (par défaut), 256, 512, 2048Optimisé pour la latence et le coût. Voir le billet de blog pour plus de détails.
    voyage-code-332 0001024 (par défaut), 256, 512, 2048

    De plus, les modèles d'embedding multimodal suivants sont recommandés :

    ModèleLongueur du contexteDimension d'embeddingDescription
    voyage-multimodal-3320001024Modèle d'embedding multimodal riche qui peut vectoriser du texte entrelacé et des images riches en contenu, telles que des captures d'écran de PDF, des diapositives, des tableaux, des figures, et plus. Voir le billet de blog pour plus de détails.

    Besoin d'aide pour décider quel modèle d'embedding de texte utiliser ? Consultez la FAQ.

    Démarrage avec Voyage AI

    Pour accéder aux embeddings Voyage :

    1. Inscrivez-vous sur le site Web de Voyage AI
    2. Obtenez une clé API
    3. Définissez la clé API comme variable d'environnement pour plus de commodité :
    export VOYAGE_API_KEY="<your secret key>"

    Vous pouvez obtenir les embeddings en utilisant soit le package Python officiel voyageai, soit des requêtes HTTP, comme décrit ci-dessous.

    Bibliothèque Python Voyage

    Le package voyageai peut être installé à l'aide de la commande suivante :

    pip install -U voyageai

    Ensuite, vous pouvez créer un objet client et commencer à l'utiliser pour intégrer vos textes :

    import voyageai
    
    vo = voyageai.Client()
    # This will automatically use the environment variable VOYAGE_API_KEY.
    # Alternatively, you can use vo = voyageai.Client(api_key="<your secret key>")
    
    texts = ["Sample text 1", "Sample text 2"]
    
    result = vo.embed(texts, model="voyage-3.5", input_type="document")
    print(result.embeddings[0])
    print(result.embeddings[1])

    result.embeddings sera une liste de deux vecteurs d'embedding, chacun contenant 1024 nombres à virgule flottante. Après avoir exécuté le code ci-dessus, les deux embeddings seront imprimés à l'écran :

    [-0.013131560757756233, 0.019828535616397858, ...]   # embedding for "Sample text 1"
    [-0.0069352793507277966, 0.020878976210951805, ...]  # embedding for "Sample text 2"

    Lors de la création des embeddings, vous pouvez spécifier quelques autres arguments à la fonction embed().

    Pour plus d'informations sur le package Python Voyage, consultez la documentation Voyage.

    API HTTP Voyage

    Vous pouvez également obtenir des embeddings en demandant l'API HTTP Voyage. Par exemple, vous pouvez envoyer une requête HTTP via la commande curl dans un terminal :

    curl https://api.voyageai.com/v1/embeddings \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $VOYAGE_API_KEY" \
      -d '{
        "input": ["Sample text 1", "Sample text 2"],
        "model": "voyage-3.5"
      }'

    La réponse que vous obtiendriez est un objet JSON contenant les embeddings et l'utilisation des tokens :

    {
      "object": "list",
      "data": [
        {
          "embedding": [-0.013131560757756233, 0.019828535616397858 /* ... */],
          "index": 0
        },
        {
          "embedding": [-0.0069352793507277966, 0.020878976210951805 /* ... */],
          "index": 1
        }
      ],
      "model": "voyage-3.5",
      "usage": {
        "total_tokens": 10
      }
    }

    Pour plus d'informations sur l'API HTTP Voyage, consultez la documentation Voyage.

    AWS Marketplace

    Les embeddings Voyage sont disponibles sur AWS Marketplace. Les instructions pour accéder à Voyage sur AWS sont disponibles dans la documentation AWS Marketplace de Voyage.

    Exemple de démarrage rapide

    L'exemple bref suivant montre comment utiliser les embeddings.

    Supposons que vous ayez un petit corpus de six documents à récupérer

    documents = [
        "The Mediterranean diet emphasizes fish, olive oil, and vegetables, believed to reduce chronic diseases.",
        "Photosynthesis in plants converts light energy into glucose and produces essential oxygen.",
        "20th-century innovations, from radios to smartphones, centered on electronic advancements.",
        "Rivers provide water, irrigation, and habitat for aquatic species, vital for ecosystems.",
        "Apple's conference call to discuss fourth fiscal quarter results and business updates is scheduled for Thursday, November 2, 2023 at 2:00 p.m. PT / 5:00 p.m. ET.",
        "Shakespeare's works, like 'Hamlet' and 'A Midsummer Night's Dream,' endure in literature.",
    ]

    Tout d'abord, utilisez Voyage pour convertir chaque document en vecteur d'embedding

    import voyageai
    
    vo = voyageai.Client()
    
    # Embed the documents
    doc_embds = vo.embed(documents, model="voyage-3.5", input_type="document").embeddings

    Les embeddings vous permettent de faire une recherche sémantique / récupération dans l'espace vectoriel. Étant donné une requête d'exemple,

    query = "When is Apple's conference call scheduled?"

    Ensuite, convertissez-la en embedding et effectuez une recherche du plus proche voisin pour trouver le document le plus pertinent en fonction de la distance dans l'espace d'embedding.

    import numpy as np
    
    # Embed the query
    query_embd = vo.embed([query], model="voyage-3.5", input_type="query").embeddings[0]
    
    # Compute the similarity
    # Voyage embeddings are normalized to length 1, therefore dot-product
    # and cosine similarity are the same.
    similarities = np.dot(doc_embds, query_embd)
    
    retrieved_id = np.argmax(similarities)
    print(documents[retrieved_id])

    Notez que input_type="document" et input_type="query" sont utilisés pour intégrer respectivement le document et la requête. Plus de spécifications peuvent être trouvées dans la section du package Python Voyage.

    La sortie serait le 5ème document, qui est en effet le plus pertinent pour la requête :

    Apple's conference call to discuss fourth fiscal quarter results and business updates is scheduled for Thursday, November 2, 2023 at 2:00 p.m. PT / 5:00 p.m. ET.

    Si vous recherchez un ensemble détaillé de livres de recettes sur comment faire du RAG avec des embeddings, y compris des bases de données vectorielles, consultez le cookbook RAG.

    FAQ

    Tarification

    Visitez la page de tarification de Voyage pour les détails de tarification les plus à jour.

    Optimisé pour la récupération de code. Voir le billet de blog pour plus de détails.
    voyage-finance-232 0001024Optimisé pour la récupération et RAG en finance. Voir le billet de blog pour plus de détails.
    voyage-law-216 0001024Optimisé pour la récupération et RAG en droit et contexte long. Performances également améliorées dans tous les domaines. Voir le billet de blog pour plus de détails.