Loading...
    • 开发者指南
    • API 参考
    • MCP
    • 资源
    • 发布说明
    Search...
    ⌘K

    资源

    overview术语表系统提示词

    用例

    概述工单路由客户支持代理内容审核法律文件摘要

    提示库

    提示词库宇宙按键企业透视师网站向导Excel公式专家Google apps 脚本编写器Python 错误修复器时间旅行顾问故事创作伙伴引用你的来源SQL 魔法师梦境解释师双关语专家烹饪创作者混成词诗人Hal 幽默助手LaTeX 传奇情绪着色器Git 高手比喻专家道德困境导航器会议记录员习语阐释器代码顾问函数制造器新词创造者CSV 转换器表情符号编码器散文润色器观点思考者问答题生成器正念导师二年级简化器VR健身创新者PII 净化器备忘录大师职业教练评分大师绕口令面试问题制作器语法精灵猜猜这个谜语代码解释器外星人类学家数据整理器品牌建设者效率估算器评论分类器方向解码器励志缪斯邮箱地址提取器主审核员课程规划师苏格拉底智者头韵炼金术师未来主义时尚顾问多语言超能力产品命名专家哲学思辨电子表格魔法师科幻场景模拟器自适应编辑器Babel的广播推文语调检测器机场代码分析器
    Console
    资源

    术语表

    这些概念并非Anthropic语言模型独有,但我们在下面简要总结了关键术语。

    上下文窗口

    "上下文窗口"是指语言模型在生成新文本时可以回顾和引用的文本量。这与语言模型训练时使用的大型数据语料库不同,而是代表模型的"工作记忆"。更大的上下文窗口允许模型理解和响应更复杂和冗长的提示,而较小的上下文窗口可能限制模型处理较长提示或在扩展对话中保持连贯性的能力。

    查看我们的理解上下文窗口指南了解更多信息。

    微调

    微调是使用额外数据进一步训练预训练语言模型的过程。这会导致模型开始表示和模仿微调数据集的模式和特征。Claude不是一个裸语言模型;它已经被微调为一个有用的助手。我们的API目前不提供微调功能,但如果您有兴趣探索此选项,请询问您的Anthropic联系人。微调对于使语言模型适应特定领域、任务或写作风格很有用,但需要仔细考虑微调数据以及对模型性能和偏见的潜在影响。

    HHH

    这三个H代表Anthropic在确保Claude对社会有益方面的目标:

    • 有用的AI将尝试尽其所能执行任务或回答所提出的问题,提供相关和有用的信息。
    • 诚实的AI将提供准确的信息,不会产生幻觉或虚构。它将在适当时承认其局限性和不确定性。
    • 无害的AI不会具有攻击性或歧视性,当被要求协助危险或不道德行为时,AI应礼貌地拒绝并解释为什么不能遵从。

    延迟

    在生成式AI和大型语言模型的背景下,延迟是指模型响应给定提示所需的时间。这是提交提示和接收生成输出之间的延迟。较低的延迟表示更快的响应时间,这对于实时应用程序、聊天机器人和交互式体验至关重要。可能影响延迟的因素包括模型大小、硬件能力、网络条件以及提示和生成响应的复杂性。

    LLM

    大型语言模型(LLM)是具有许多参数的AI语言模型,能够执行各种令人惊讶的有用任务。这些模型在大量文本数据上进行训练,可以生成类似人类的文本、回答问题、总结信息等。Claude是基于大型语言模型的对话助手,已经通过微调和使用RLHF训练,变得更加有用、诚实和无害。

    MCP(模型上下文协议)

    模型上下文协议(MCP)是一个开放协议,标准化了应用程序如何为LLM提供上下文。就像AI应用程序的USB-C端口一样,MCP提供了一种统一的方式来连接AI模型到不同的数据源和工具。MCP使AI系统能够在交互中保持一致的上下文,并以标准化的方式访问外部资源。查看我们的MCP文档了解更多信息。

    MCP连接器

    MCP连接器是一个功能,允许API用户直接从Messages API连接到MCP服务器,而无需构建MCP客户端。这通过Claude API实现了与MCP兼容工具和服务的无缝集成。MCP连接器支持工具调用等功能,目前处于公开测试阶段。查看我们的MCP连接器文档了解更多信息。

    预训练

    预训练是在大型无标签文本语料库上训练语言模型的初始过程。在Claude的情况下,自回归语言模型(如Claude的底层模型)被预训练来预测下一个词,给定文档中文本的先前上下文。这些预训练模型本身并不擅长回答问题或遵循指令,通常需要深厚的提示工程技能来引出所需的行为。微调和RLHF用于完善这些预训练模型,使它们对广泛的任务更加有用。

    RAG(检索增强生成)

    检索增强生成(RAG)是一种将信息检索与语言模型生成相结合的技术,以提高生成文本的准确性和相关性,并更好地将模型的响应建立在证据基础上。在RAG中,语言模型通过传递到上下文窗口的外部知识库或文档集进行增强。数据在向模型发送查询时在运行时检索,尽管模型本身不一定检索数据(但可以通过工具使用和检索函数来实现)。在生成文本时,首先必须基于输入提示从知识库中检索相关信息,然后与原始查询一起传递给模型。模型使用这些信息来指导其生成的输出。这允许模型访问和利用其训练数据之外的信息,减少对记忆的依赖,提高生成文本的事实准确性。RAG对于需要最新信息、特定领域知识或明确引用来源的任务特别有用。然而,RAG的有效性取决于外部知识库的质量和相关性以及在运行时检索的知识。

    RLHF

    人类反馈强化学习(RLHF)是一种用于训练预训练语言模型以符合人类偏好的行为方式的技术。这可以包括帮助模型更有效地遵循指令或更像聊天机器人一样行动。人类反馈包括对两个或更多示例文本集进行排名,强化学习过程鼓励模型偏好与排名较高的输出相似的输出。Claude已经使用RLHF进行训练,成为更有用的助手。有关更多详细信息,您可以阅读Anthropic关于该主题的论文。

    温度

    温度是控制模型在文本生成过程中预测随机性的参数。较高的温度导致更具创造性和多样性的输出,允许措辞的多种变化,在小说的情况下,答案也会有变化。较低的温度导致更保守和确定性的输出,坚持最可能的措辞和答案。调整温度使用户能够鼓励语言模型探索罕见、不常见或令人惊讶的词汇选择和序列,而不是只选择最可能的预测。

    TTFT(首个令牌时间)

    首个令牌时间(TTFT)是一个性能指标,测量语言模型在接收提示后生成其输出的第一个令牌所需的时间。这是模型响应性的重要指标,对于交互式应用程序、聊天机器人和实时系统特别相关,用户期望快速的初始反馈。较低的TTFT表示模型可以更快地开始生成响应,提供更无缝和引人入胜的用户体验。可能影响TTFT的因素包括模型大小、硬件能力、网络条件和提示的复杂性。

    令牌

    令牌是语言模型的最小个体单位,可以对应于词、子词、字符,甚至字节(在Unicode的情况下)。对于Claude,一个令牌大约代表3.5个英文字符,尽管确切数字可能因使用的语言而异。在"文本"级别与语言模型交互时,令牌通常是隐藏的,但在检查语言模型的确切输入和输出时变得相关。当向Claude提供要评估的文本时,文本(由一系列字符组成)被编码为一系列令牌供模型处理。较大的令牌在推理和预训练期间实现数据效率(并在可能时使用),而较小的令牌允许模型处理不常见或从未见过的词。令牌化方法的选择可能影响模型的性能、词汇量大小以及处理词汇表外词汇的能力。

    • HHH
    • LLM
    • MCP(模型上下文协议)
    • MCP连接器
    • RAG(检索增强生成)
    • RLHF
    • TTFT(首个令牌时间)
    © 2025 ANTHROPIC PBC

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy

    Products

    • Claude
    • Claude Code
    • Max plan
    • Team plan
    • Enterprise plan
    • Download app
    • Pricing
    • Log in

    Features

    • Claude and Slack
    • Claude in Excel

    Models

    • Opus
    • Sonnet
    • Haiku

    Solutions

    • AI agents
    • Code modernization
    • Coding
    • Customer support
    • Education
    • Financial services
    • Government
    • Life sciences

    Claude Developer Platform

    • Overview
    • Developer docs
    • Pricing
    • Amazon Bedrock
    • Google Cloud’s Vertex AI
    • Console login

    Learn

    • Blog
    • Catalog
    • Courses
    • Use cases
    • Connectors
    • Customer stories
    • Engineering at Anthropic
    • Events
    • Powered by Claude
    • Service partners
    • Startups program

    Company

    • Anthropic
    • Careers
    • Economic Futures
    • Research
    • News
    • Responsible Scaling Policy
    • Security and compliance
    • Transparency

    Help and security

    • Availability
    • Status
    • Support center

    Terms and policies

    • Privacy policy
    • Responsible disclosure policy
    • Terms of service: Commercial
    • Terms of service: Consumer
    • Usage policy
    © 2025 ANTHROPIC PBC