Le « context window » (fenêtre de contexte) fait référence à la quantité de texte qu'un modèle de langage peut consulter et référencer lors de la génération de nouveau texte. Ceci est différent du grand corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une « mémoire de travail » pour le modèle. Une fenêtre de contexte plus grande permet au modèle de comprendre et de répondre à des invites plus complexes et plus longues, tandis qu'une fenêtre de contexte plus petite peut limiter la capacité du modèle à traiter des invites plus longues ou à maintenir la cohérence sur des conversations prolongées.
Consultez notre guide pour comprendre les fenêtres de contexte pour en savoir plus.
Le fine-tuning (ajustement fin) est le processus d'entraînement supplémentaire d'un modèle de langage préentraîné en utilisant des données supplémentaires. Cela amène le modèle à commencer à représenter et à imiter les motifs et les caractéristiques de l'ensemble de données d'ajustement fin. Claude n'est pas un modèle de langage brut ; il a déjà été ajusté finement pour être un assistant utile. Notre API n'offre actuellement pas d'ajustement fin, mais veuillez contacter votre contact Anthropic si vous êtes intéressé par l'exploration de cette option. L'ajustement fin peut être utile pour adapter un modèle de langage à un domaine, une tâche ou un style d'écriture spécifique, mais il nécessite une considération attentive des données d'ajustement fin et de l'impact potentiel sur les performances et les biais du modèle.
Ces trois H représentent les objectifs d'Anthropic pour s'assurer que Claude est bénéfique pour la société :
La latence, dans le contexte de l'IA générative et des grands modèles de langage, fait référence au temps qu'il faut au modèle pour répondre à une invite donnée. C'est le délai entre la soumission d'une invite et la réception de la sortie générée. Une latence plus faible indique des temps de réponse plus rapides, ce qui est crucial pour les applications en temps réel, les chatbots et les expériences interactives. Les facteurs qui peuvent affecter la latence incluent la taille du modèle, les capacités matérielles, les conditions du réseau et la complexité de l'invite et de la réponse générée.
Les grands modèles de langage (LLMs) sont des modèles de langage IA avec de nombreux paramètres qui sont capables d'effectuer une variété de tâches étonnamment utiles. Ces modèles sont entraînés sur de vastes quantités de données textuelles et peuvent générer du texte semblable à celui d'un humain, répondre à des questions, résumer des informations, et plus encore. Claude est un assistant conversationnel basé sur un grand modèle de langage qui a été ajusté finement et entraîné en utilisant RLHF pour être plus utile, honnête et inoffensif.
Le Model Context Protocol (MCP) est un protocole ouvert qui standardise la façon dont les applications fournissent du contexte aux LLMs. Comme un port USB-C pour les applications IA, MCP fournit un moyen unifié de connecter les modèles IA à différentes sources de données et outils. MCP permet aux systèmes IA de maintenir un contexte cohérent entre les interactions et d'accéder aux ressources externes de manière standardisée. Consultez notre documentation MCP pour en savoir plus.
Le MCP connector (connecteur MCP) est une fonctionnalité qui permet aux utilisateurs de l'API de se connecter directement aux serveurs MCP à partir de l'API Messages sans construire un client MCP. Cela permet une intégration transparente avec les outils et services compatibles MCP via l'API Claude. Le connecteur MCP prend en charge des fonctionnalités comme l'appel d'outils et est disponible en bêta public. Consultez notre documentation du connecteur MCP pour en savoir plus.
Le pretraining (préentraînement) est le processus initial d'entraînement des modèles de langage sur un grand corpus de texte non étiqueté. Dans le cas de Claude, les modèles de langage autorégressifs (comme le modèle sous-jacent de Claude) sont préentraînés pour prédire le mot suivant, compte tenu du contexte précédent du texte dans le document. Ces modèles préentraînés ne sont pas intrinsèquement bons pour répondre à des questions ou suivre des instructions, et nécessitent souvent une compétence approfondie en ingénierie des invites pour obtenir les comportements souhaités. L'ajustement fin et RLHF sont utilisés pour affiner ces modèles préentraînés, les rendant plus utiles pour une large gamme de tâches.
La génération augmentée par récupération (RAG) est une technique qui combine la récupération d'informations avec la génération de modèles de langage pour améliorer la précision et la pertinence du texte généré, et pour mieux ancrer la réponse du modèle dans des preuves. Dans RAG, un modèle de langage est augmenté avec une base de connaissances externe ou un ensemble de documents qui est transmis dans la fenêtre de contexte. Les données sont récupérées au moment de l'exécution lorsqu'une requête est envoyée au modèle, bien que le modèle lui-même ne récupère pas nécessairement les données (mais peut le faire avec l'utilisation d'outils et une fonction de récupération). Lors de la génération de texte, les informations pertinentes doivent d'abord être récupérées de la base de connaissances en fonction de l'invite d'entrée, puis transmises au modèle avec la requête originale. Le modèle utilise ces informations pour guider la sortie qu'il génère. Cela permet au modèle d'accéder et d'utiliser des informations au-delà de ses données d'entraînement, réduisant la dépendance à la mémorisation et améliorant la précision factuelle du texte généré. RAG peut être particulièrement utile pour les tâches qui nécessitent des informations à jour, des connaissances spécifiques au domaine ou une citation explicite des sources. Cependant, l'efficacité de RAG dépend de la qualité et de la pertinence de la base de connaissances externe et des connaissances qui sont récupérées au moment de l'exécution.
Le Reinforcement Learning from Human Feedback (RLHF) est une technique utilisée pour entraîner un modèle de langage préentraîné à se comporter de manière cohérente avec les préférences humaines. Cela peut inclure aider le modèle à suivre les instructions plus efficacement ou à agir davantage comme un chatbot. Les commentaires humains consistent à classer un ensemble de deux ou plusieurs exemples de texte, et le processus d'apprentissage par renforcement encourage le modèle à préférer les résultats similaires à ceux mieux classés. Claude a été entraîné en utilisant RLHF pour être un assistant plus utile. Pour plus de détails, vous pouvez lire l'article d'Anthropic sur le sujet.
La température est un paramètre qui contrôle le caractère aléatoire des prédictions d'un modèle lors de la génération de texte. Des températures plus élevées conduisent à des résultats plus créatifs et diversifiés, permettant plusieurs variations dans la formulation et, dans le cas de la fiction, une variation dans les réponses également. Des températures plus basses entraînent des résultats plus conservateurs et déterministes qui s'en tiennent à la formulation et aux réponses les plus probables. L'ajustement de la température permet aux utilisateurs d'encourager un modèle de langage à explorer des choix et des séquences de mots rares, inhabituels ou surprenants, plutôt que de sélectionner uniquement les prédictions les plus probables.
Les utilisateurs peuvent rencontrer un non-déterminisme dans les API. Même avec la température définie à 0, les résultats ne seront pas entièrement déterministes et les entrées identiques peuvent produire des résultats différents entre les appels API. Cela s'applique à la fois au service d'inférence propriétaire d'Anthropic et à l'inférence via des fournisseurs de cloud tiers.
Time to First Token (TTFT) est une métrique de performance qui mesure le temps qu'il faut à un modèle de langage pour générer le premier token de sa sortie après avoir reçu une invite. C'est un indicateur important de la réactivité du modèle et est particulièrement pertinent pour les applications interactives, les chatbots et les systèmes en temps réel où les utilisateurs s'attendent à des commentaires initiaux rapides. Un TTFT plus faible indique que le modèle peut commencer à générer une réponse plus rapidement, offrant une expérience utilisateur plus transparente et engageante. Les facteurs qui peuvent influencer TTFT incluent la taille du modèle, les capacités matérielles, les conditions du réseau et la complexité de l'invite.
Les tokens sont les plus petites unités individuelles d'un modèle de langage, et peuvent correspondre à des mots, des sous-mots, des caractères ou même des octets (dans le cas d'Unicode). Pour Claude, un token représente approximativement 3,5 caractères anglais, bien que le nombre exact puisse varier selon la langue utilisée. Les tokens sont généralement masqués lors de l'interaction avec les modèles de langage au niveau du « texte », mais deviennent pertinents lors de l'examen des entrées et sorties exactes d'un modèle de langage. Lorsque Claude reçoit du texte à évaluer, le texte (composé d'une série de caractères) est codé en une série de tokens pour que le modèle le traite. Les tokens plus grands permettent l'efficacité des données lors de l'inférence et du préentraînement (et sont utilisés lorsque possible), tandis que les tokens plus petits permettent à un modèle de gérer des mots rares ou jamais vus auparavant. Le choix de la méthode de tokenisation peut avoir un impact sur les performances du modèle, la taille du vocabulaire et la capacité à gérer les mots hors vocabulaire.
Was this page helpful?