Loading...
    • Guide du développeur
    • Référence API
    • MCP
    • Ressources
    • Notes de version
    Search...
    ⌘K
    Premiers pas
    Introduction à ClaudeDémarrage rapide
    Modèles et tarification
    Aperçu des modèlesChoisir un modèleNouveautés dans Claude 4.6Guide de migrationDépréciation des modèlesTarification
    Créer avec Claude
    Aperçu des fonctionnalitésUtiliser l'API MessagesGérer les raisons d'arrêtMeilleures pratiques de prompting
    Gestion du contexte
    Fenêtres de contexteCompactionÉdition du contexte
    Capacités
    Mise en cache des promptsRéflexion étendueRéflexion adaptativeEffortStreaming de messagesTraitement par lotsCitationsSupport multilingueComptage des tokensEmbeddingsVisionSupport PDFAPI FilesRésultats de rechercheSorties structurées
    Outils
    AperçuComment implémenter l'utilisation d'outilsStreaming d'outils granulaireOutil BashOutil d'exécution de codeAppel d'outils programmatiqueOutil Computer useOutil Éditeur de texteOutil Web fetchOutil Web searchOutil MémoireOutil Tool search
    Compétences d'agent
    AperçuDémarrage rapideMeilleures pratiquesCompétences pour l'entrepriseUtiliser les compétences avec l'API
    SDK Agent
    AperçuDémarrage rapideSDK TypeScriptTypeScript V2 (aperçu)SDK PythonGuide de migration
    MCP dans l'API
    Connecteur MCPServeurs MCP distants
    Claude sur les plateformes tierces
    Amazon BedrockMicrosoft FoundryVertex AI
    Ingénierie des prompts
    AperçuGénérateur de promptsUtiliser les modèles de promptsAméliorateur de promptsÊtre clair et directUtiliser des exemples (prompting multi-coups)Laisser Claude réfléchir (CoT)Utiliser les balises XMLDonner un rôle à Claude (prompts système)Enchaîner les prompts complexesConseils pour le contexte longConseils pour la réflexion étendue
    Tester et évaluer
    Définir les critères de succèsDévelopper des cas de testUtiliser l'outil d'évaluationRéduire la latence
    Renforcer les garde-fous
    Réduire les hallucinationsAugmenter la cohérence des résultatsAtténuer les jailbreaksRefus en streamingRéduire les fuites de promptsGarder Claude dans le rôle
    Administration et surveillance
    Aperçu de l'API AdminRésidence des donnéesEspaces de travailAPI d'utilisation et de coûtsAPI Claude Code AnalyticsRétention zéro des données
    Console
    Log in
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...
    Loading...

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Partners

    • Amazon Bedrock
    • Google Cloud's Vertex AI

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Help and security

    • Availability
    • Status
    • Support
    • Discord

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    Capacités

    Embeddings

    Les embeddings de texte sont des représentations numériques du texte qui permettent de mesurer la similarité sémantique. Ce guide présente les embeddings, leurs applications, et comment utiliser les modèles d'embedding pour des tâches telles que la recherche, les recommandations et la détection d'anomalies.

    Avant d'implémenter les embeddings

    Lors du choix d'un fournisseur d'embeddings, il y a plusieurs facteurs que vous pouvez considérer en fonction de vos besoins et préférences :

    • Taille du dataset et spécificité du domaine : taille du dataset d'entraînement du modèle et sa pertinence pour le domaine que vous souhaitez intégrer. Des données plus grandes ou plus spécifiques au domaine produisent généralement de meilleurs embeddings dans le domaine
    • Performance d'inférence : vitesse de recherche d'embedding et latence de bout en bout. C'est une considération particulièrement importante pour les déploiements en production à grande échelle
    • Personnalisation : options pour un entraînement continu sur des données privées, ou spécialisation des modèles pour des domaines très spécifiques. Cela peut améliorer les performances sur des vocabulaires uniques

    Comment obtenir des embeddings avec Anthropic

    Anthropic n'offre pas son propre modèle d'embedding. Un fournisseur d'embeddings qui dispose d'une large variété d'options et de capacités englobant toutes les considérations ci-dessus est Voyage AI.

    Voyage AI crée des modèles d'embedding de pointe et offre des modèles personnalisés pour des domaines industriels spécifiques tels que la finance et la santé, ou des modèles affinés sur mesure pour des clients individuels.

    Le reste de ce guide concerne Voyage AI, mais nous vous encourageons à évaluer une variété de fournisseurs d'embeddings pour trouver le meilleur ajustement pour votre cas d'usage spécifique.

    Modèles disponibles

    Voyage recommande d'utiliser les modèles d'embedding de texte suivants :

    ModèleLongueur du contexteDimension d'embeddingDescription
    voyage-3-large32 0001024 (par défaut), 256, 512, 2048La meilleure qualité de récupération généraliste et multilingue. Voir le billet de blog pour plus de détails.
    voyage-3.532 0001024 (par défaut), 256, 512, 2048Optimisé pour la qualité de récupération généraliste et multilingue. Voir le billet de blog pour plus de détails.
    voyage-3.5-lite32 0001024 (par défaut), 256, 512, 2048Optimisé pour la latence et le coût. Voir le billet de blog pour plus de détails.
    voyage-code-332 0001024 (par défaut), 256, 512, 2048Optimisé pour la récupération de code. Voir le billet de blog pour plus de détails.
    voyage-finance-232 0001024Optimisé pour la récupération et le RAG en finance. Voir le billet de blog pour plus de détails.
    voyage-law-216 0001024Optimisé pour la récupération et le RAG en droit et contexte long. Performances également améliorées dans tous les domaines. Voir le billet de blog pour plus de détails.

    De plus, les modèles d'embedding multimodal suivants sont recommandés :

    ModèleLongueur du contexteDimension d'embeddingDescription
    voyage-multimodal-3320001024Modèle d'embedding multimodal riche qui peut vectoriser du texte entrelacé et des images riches en contenu, telles que des captures d'écran de PDF, des diapositives, des tableaux, des figures, et plus. Voir le billet de blog pour plus de détails.

    Besoin d'aide pour décider quel modèle d'embedding de texte utiliser ? Consultez la FAQ.

    Démarrage avec Voyage AI

    Pour accéder aux embeddings Voyage :

    1. Inscrivez-vous sur le site web de Voyage AI
    2. Obtenez une clé API
    3. Définissez la clé API comme variable d'environnement pour plus de commodité :
    export VOYAGE_API_KEY="<your secret key>"

    Vous pouvez obtenir les embeddings en utilisant soit le package Python officiel voyageai, soit des requêtes HTTP, comme décrit ci-dessous.

    Bibliothèque Voyage Python

    Le package voyageai peut être installé à l'aide de la commande suivante :

    pip install -U voyageai

    Ensuite, vous pouvez créer un objet client et commencer à l'utiliser pour intégrer vos textes :

    import voyageai
    
    vo = voyageai.Client()
    # This will automatically use the environment variable VOYAGE_API_KEY.
    # Alternatively, you can use vo = voyageai.Client(api_key="<your secret key>")
    
    texts = ["Sample text 1", "Sample text 2"]
    
    result = vo.embed(texts, model="voyage-3.5", input_type="document")
    print(result.embeddings[0])
    print(result.embeddings[1])

    result.embeddings sera une liste de deux vecteurs d'embedding, chacun contenant 1024 nombres à virgule flottante. Après avoir exécuté le code ci-dessus, les deux embeddings seront imprimés à l'écran :

    [-0.013131560757756233, 0.019828535616397858, ...]   # embedding for "Sample text 1"
    [-0.0069352793507277966, 0.020878976210951805, ...]  # embedding for "Sample text 2"

    Lors de la création des embeddings, vous pouvez spécifier quelques autres arguments à la fonction embed().

    Pour plus d'informations sur le package Python Voyage, consultez la documentation Voyage.

    API HTTP Voyage

    Vous pouvez également obtenir des embeddings en demandant l'API HTTP Voyage. Par exemple, vous pouvez envoyer une requête HTTP via la commande curl dans un terminal :

    curl https://api.voyageai.com/v1/embeddings \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $VOYAGE_API_KEY" \
      -d '{
        "input": ["Sample text 1", "Sample text 2"],
        "model": "voyage-3.5"
      }'

    La réponse que vous obtiendriez est un objet JSON contenant les embeddings et l'utilisation des tokens :

    {
      "object": "list",
      "data": [
        {
          "embedding": [-0.013131560757756233, 0.019828535616397858, ...],
          "index": 0
        },
        {
          "embedding": [-0.0069352793507277966, 0.020878976210951805, ...],
          "index": 1
        }
      ],
      "model": "voyage-3.5",
      "usage": {
        "total_tokens": 10
      }
    }
    

    Pour plus d'informations sur l'API HTTP Voyage, consultez la documentation Voyage.

    AWS Marketplace

    Les embeddings Voyage sont disponibles sur AWS Marketplace. Les instructions pour accéder à Voyage sur AWS sont disponibles ici.

    Exemple de démarrage rapide

    Maintenant que nous savons comment obtenir des embeddings, voyons un bref exemple.

    Supposons que nous ayons un petit corpus de six documents à récupérer

    documents = [
        "The Mediterranean diet emphasizes fish, olive oil, and vegetables, believed to reduce chronic diseases.",
        "Photosynthesis in plants converts light energy into glucose and produces essential oxygen.",
        "20th-century innovations, from radios to smartphones, centered on electronic advancements.",
        "Rivers provide water, irrigation, and habitat for aquatic species, vital for ecosystems.",
        "Apple's conference call to discuss fourth fiscal quarter results and business updates is scheduled for Thursday, November 2, 2023 at 2:00 p.m. PT / 5:00 p.m. ET.",
        "Shakespeare's works, like 'Hamlet' and 'A Midsummer Night's Dream,' endure in literature."
    ]
    

    Nous utiliserons d'abord Voyage pour convertir chacun d'eux en vecteur d'embedding

    import voyageai
    
    vo = voyageai.Client()
    
    # Embed the documents
    doc_embds = vo.embed(
        documents, model="voyage-3.5", input_type="document"
    ).embeddings

    Les embeddings nous permettront de faire une recherche sémantique / récupération dans l'espace vectoriel. Étant donné une requête d'exemple,

    query = "When is Apple's conference call scheduled?"

    nous la convertissons en embedding, et effectuons une recherche du plus proche voisin pour trouver le document le plus pertinent en fonction de la distance dans l'espace d'embedding.

    import numpy as np
    
    # Embed the query
    query_embd = vo.embed(
        [query], model="voyage-3.5", input_type="query"
    ).embeddings[0]
    
    # Compute the similarity
    # Voyage embeddings are normalized to length 1, therefore dot-product
    # and cosine similarity are the same.
    similarities = np.dot(doc_embds, query_embd)
    
    retrieved_id = np.argmax(similarities)
    print(documents[retrieved_id])

    Notez que nous utilisons input_type="document" et input_type="query" pour intégrer respectivement le document et la requête. Plus de spécifications peuvent être trouvées ici.

    La sortie serait le 5ème document, qui est en effet le plus pertinent pour la requête :

    Apple's conference call to discuss fourth fiscal quarter results and business updates is scheduled for Thursday, November 2, 2023 at 2:00 p.m. PT / 5:00 p.m. ET.

    Si vous recherchez un ensemble détaillé de livres de cuisine sur la façon de faire du RAG avec des embeddings, y compris des bases de données vectorielles, consultez notre livre de cuisine RAG.

    FAQ

    Tarification

    Visitez la page de tarification de Voyage pour les détails de tarification les plus à jour.

    Was this page helpful?

    • Avant d'implémenter les embeddings
    • Comment obtenir des embeddings avec Anthropic
    • Modèles disponibles
    • Démarrage avec Voyage AI
    • Bibliothèque Voyage Python
    • API HTTP Voyage
    • AWS Marketplace
    • Exemple de démarrage rapide
    • FAQ
    • Tarification