Loading...
  • 构建
  • 管理
  • 模型与定价
  • 客户端 SDK
  • API 参考
Search...
⌘K
Log in
术语表
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
构建/资源

术语表

这些概念并非Anthropic语言模型独有,但我们在下面简要总结了关键术语。

上下文窗口

"上下文窗口"是指语言模型在生成新文本时可以回顾和参考的文本量。这与语言模型训练所用的大型数据语料库不同,而是代表模型的"工作记忆"。较大的上下文窗口允许模型理解和响应更复杂和冗长的提示,而较小的上下文窗口可能会限制模型处理较长提示或在扩展对话中保持连贯性的能力。

请参阅我们的上下文窗口理解指南了解更多信息。

微调

微调是使用额外数据进一步训练预训练语言模型的过程。这会导致模型开始表示和模仿微调数据集的模式和特征。Claude不是一个裸露的语言模型;它已经被微调成一个有用的助手。我们的API目前不提供微调,但如果您有兴趣探索此选项,请联系您的Anthropic联系人。微调可用于使语言模型适应特定的领域、任务或写作风格,但需要仔细考虑微调数据以及对模型性能和偏差的潜在影响。

HHH

这三个H代表Anthropic确保Claude对社会有益的目标:

  • 有帮助的 AI将尽力执行任务或回答提出的问题,提供相关和有用的信息。
  • 诚实的 AI将提供准确的信息,不会产生幻觉或虚构。它会在适当时承认其局限性和不确定性。
  • 无害的 AI不会具有冒犯性或歧视性,当被要求协助危险或不道德的行为时,AI应该礼貌地拒绝并解释为什么无法遵守。

延迟

在生成式AI和大型语言模型的背景下,延迟是指模型响应给定提示所需的时间。它是提交提示和接收生成输出之间的延迟。较低的延迟表示更快的响应时间,这对实时应用、聊天机器人和交互式体验至关重要。影响延迟的因素包括模型大小、硬件能力、网络条件以及提示和生成响应的复杂性。

LLM

大型语言模型(LLM)是具有许多参数的AI语言模型,能够执行各种令人惊讶的有用任务。这些模型在大量文本数据上进行训练,可以生成类似人类的文本、回答问题、总结信息等。Claude是一个基于大型语言模型的对话助手,已通过微调和使用RLHF进行训练,以变得更有帮助、更诚实和更无害。

MCP(模型上下文协议)

模型上下文协议(MCP)是一个开放协议,用于标准化应用程序向LLM提供上下文的方式。就像AI应用的USB-C端口一样,MCP提供了一种统一的方式来将AI模型连接到不同的数据源和工具。MCP使AI系统能够在交互中保持一致的上下文,并以标准化的方式访问外部资源。请参阅我们的MCP文档了解更多信息。

MCP连接器

MCP连接器是一项功能,允许API用户直接从Messages API连接到MCP服务器,而无需构建MCP客户端。这使得通过Claude API与MCP兼容的工具和服务无缝集成成为可能。MCP连接器支持工具调用等功能,目前处于测试版。请参阅MCP连接器文档了解更多信息。

预训练

预训练是在大型未标记文本语料库上训练语言模型的初始过程。在Claude的情况下,自回归语言模型(如Claude的底层模型)被预训练以预测下一个单词,给定文档中先前的文本上下文。这些预训练模型本身不擅长回答问题或遵循指令,通常需要深厚的提示工程技能来引出所需的行为。微调和RLHF用于改进这些预训练模型,使其对广泛的任务更有用。

RAG(检索增强生成)

检索增强生成(RAG)是一种结合信息检索与语言模型生成的技术,用于提高生成文本的准确性和相关性,并更好地将模型的响应基于证据。在RAG中,语言模型通过外部知识库或一组文档进行增强,这些文档被传入上下文窗口。当查询发送到模型时,数据在运行时被检索,尽管模型本身不一定检索数据(但可以通过工具使用和检索函数进行检索)。生成文本时,必须首先根据输入提示从知识库检索相关信息,然后将其与原始查询一起传递给模型。模型使用此信息来指导它生成的输出。这允许模型访问和利用超出其训练数据的信息,减少对记忆的依赖,并提高生成文本的事实准确性。RAG对于需要最新信息、特定领域知识或明确引用来源的任务特别有用。但是,RAG的有效性取决于外部知识库的质量和相关性,以及在运行时检索的知识。

RLHF

人类反馈强化学习(RLHF)是一种用于训练预训练语言模型以与人类偏好一致的方式行动的技术。这可以包括帮助模型更有效地遵循指令或更像聊天机器人一样行动。人类反馈包括对两个或多个示例文本集进行排名,强化学习过程鼓励模型倾向于与排名较高的文本相似的输出。Claude已使用RLHF进行训练,以成为更有帮助的助手。有关更多详情,您可以阅读Anthropic关于该主题的论文。

温度

温度是一个参数,用于控制模型在文本生成过程中预测的随机性。较高的温度导致更具创意和多样化的输出,允许在措辞中有多种变化,在虚构的情况下,答案也有变化。较低的温度导致更保守和确定性的输出,坚持最可能的措辞和答案。调整温度使用户能够鼓励语言模型探索罕见、不常见或令人惊讶的词汇选择和序列,而不仅仅选择最可能的预测。

用户可能会在API中遇到非确定性。即使温度设置为0,结果也不会完全确定,相同的输入可能在API调用中产生不同的输出。这既适用于Anthropic的第一方推理服务,也适用于通过第三方云提供商的推理。

TTFT(首个令牌的时间)

首个令牌的时间(TTFT)是一个性能指标,用于衡量语言模型在接收提示后生成其输出的第一个令牌所需的时间。它是模型响应能力的重要指标,特别适用于交互式应用、聊天机器人和实时系统,用户期望快速的初始反馈。较低的TTFT表示模型可以更快地开始生成响应,提供更无缝和引人入胜的用户体验。影响TTFT的因素包括模型大小、硬件能力、网络条件以及提示的复杂性。

令牌

令牌是语言模型的最小个体单位,可以对应于单词、子词、字符甚至字节(在Unicode的情况下)。对于Claude,一个令牌大约代表3.5个英文字符,尽管确切的数字可能因使用的语言而异。令牌在与"文本"级别的语言模型交互时通常是隐藏的,但在检查语言模型的确切输入和输出时变得相关。当Claude被提供要评估的文本时,文本(由一系列字符组成)被编码为一系列令牌供模型处理。较大的令牌在推理和预训练期间实现数据效率(并在可能时被利用),而较小的令牌允许模型处理不常见或从未见过的单词。令牌化方法的选择可能会影响模型的性能、词汇表大小以及处理词汇外单词的能力。

Was this page helpful?

  • HHH
  • LLM
  • MCP(模型上下文协议)
  • MCP连接器
  • RAG(检索增强生成)
  • RLHF
  • TTFT(首个令牌的时间)