Loading...
  • 建構
  • 管理
  • 模型與定價
  • 客戶端 SDK
  • API 參考
Search...
⌘K
Log in
詞彙表
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Solutions

  • AI agents
  • Code modernization
  • Coding
  • Customer support
  • Education
  • Financial services
  • Government
  • Life sciences

Partners

  • Amazon Bedrock
  • Google Cloud's Vertex AI

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Company

  • Anthropic
  • Careers
  • Economic Futures
  • Research
  • News
  • Responsible Scaling Policy
  • Security and compliance
  • Transparency

Learn

  • Blog
  • Courses
  • Use cases
  • Connectors
  • Customer stories
  • Engineering at Anthropic
  • Events
  • Powered by Claude
  • Service partners
  • Startups program

Help and security

  • Availability
  • Status
  • Support
  • Discord

Terms and policies

  • Privacy policy
  • Responsible disclosure policy
  • Terms of service: Commercial
  • Terms of service: Consumer
  • Usage policy
建構/資源

詞彙表

這些概念並非 Anthropic 語言模型獨有,但我們在下方提供了關鍵術語的簡要總結。

上下文窗口

「上下文窗口」是指語言模型在生成新文本時可以回顧和參考的文本量。這與語言模型訓練所用的大型語料庫不同,而是代表模型的「工作記憶」。較大的上下文窗口允許模型理解和回應更複雜和冗長的提示,而較小的上下文窗口可能會限制模型處理較長提示或在延長對話中保持連貫性的能力。

請參閱我們的上下文窗口理解指南以了解更多資訊。

微調

微調是使用額外數據進一步訓練預訓練語言模型的過程。這會導致模型開始表現和模仿微調數據集的模式和特徵。Claude 不是一個裸露的語言模型;它已經被微調成一個有幫助的助手。我們的 API 目前不提供微調,但如果您有興趣探索此選項,請聯繫您的 Anthropic 聯絡人。微調可用於將語言模型適應特定領域、任務或寫作風格,但需要仔細考慮微調數據以及對模型性能和偏見的潛在影響。

HHH

這三個 H 代表 Anthropic 確保 Claude 對社會有益的目標:

  • 有幫助的 AI 將盡力執行任務或回答提出的問題,提供相關和有用的資訊。
  • 誠實的 AI 將提供準確的資訊,不會幻覺或虛構。它會在適當時承認其局限性和不確定性。
  • 無害的 AI 不會具有冒犯性或歧視性,當被要求協助危險或不道德的行為時,AI 應禮貌地拒絕並解釋為什麼無法遵守。

延遲

在生成式 AI 和大型語言模型的背景下,延遲是指模型對給定提示做出回應所需的時間。它是提交提示和接收生成輸出之間的延遲。較低的延遲表示更快的回應時間,這對於實時應用、聊天機器人和互動體驗至關重要。影響延遲的因素包括模型大小、硬體功能、網路條件以及提示和生成回應的複雜性。

LLM

大型語言模型 (LLM) 是具有許多參數的 AI 語言模型,能夠執行各種令人驚訝的有用任務。這些模型在大量文本數據上進行訓練,可以生成類似人類的文本、回答問題、總結資訊等。Claude 是一個基於大型語言模型的對話助手,已通過微調和使用 RLHF 訓練,以變得更有幫助、更誠實和更無害。

MCP(模型上下文協議)

模型上下文協議 (MCP) 是一個開放協議,標準化應用程式向 LLM 提供上下文的方式。就像 AI 應用程式的 USB-C 連接埠一樣,MCP 提供了一種統一的方式來將 AI 模型連接到不同的數據源和工具。MCP 使 AI 系統能夠在互動中保持一致的上下文,並以標準化的方式訪問外部資源。請參閱我們的 MCP 文檔以了解更多資訊。

MCP 連接器

MCP 連接器是一項功能,允許 API 用戶直接從 Messages API 連接到 MCP 伺服器,而無需構建 MCP 客戶端。這可以通過 Claude API 與 MCP 相容的工具和服務進行無縫集成。MCP 連接器支持工具調用等功能,目前處於測試版。請參閱 MCP 連接器文檔以了解更多資訊。

預訓練

預訓練是在大型未標記文本語料庫上訓練語言模型的初始過程。在 Claude 的情況下,自迴歸語言模型(如 Claude 的基礎模型)被預訓練以預測下一個單詞,給定文檔中先前的文本上下文。這些預訓練的模型本質上不擅長回答問題或遵循指示,通常需要深厚的提示工程技能來引出所需的行為。微調和 RLHF 用於改進這些預訓練的模型,使其對各種任務更有用。

RAG(檢索增強生成)

檢索增強生成 (RAG) 是一種結合資訊檢索與語言模型生成的技術,用於提高生成文本的準確性和相關性,並更好地將模型的回應基於證據。在 RAG 中,語言模型通過外部知識庫或一組文檔進行增強,這些文檔被傳入上下文窗口。數據在查詢發送到模型時在運行時檢索,儘管模型本身不一定檢索數據(但可以通過工具使用和檢索函數進行檢索)。生成文本時,必須首先根據輸入提示從知識庫檢索相關資訊,然後將其與原始查詢一起傳遞給模型。模型使用此資訊來指導其生成的輸出。這允許模型訪問和利用超出其訓練數據的資訊,減少對記憶化的依賴,並提高生成文本的事實準確性。RAG 對於需要最新資訊、特定領域知識或明確引用來源的任務特別有用。但是,RAG 的有效性取決於外部知識庫的質量和相關性,以及在運行時檢索的知識。

RLHF

來自人類反饋的強化學習 (RLHF) 是一種用於訓練預訓練語言模型以符合人類偏好的方式行動的技術。這可以包括幫助模型更有效地遵循指示或更像聊天機器人一樣行動。人類反饋包括對兩個或多個示例文本進行排名,強化學習過程鼓勵模型偏好與排名較高的文本相似的輸出。Claude 已使用 RLHF 進行訓練,以成為更有幫助的助手。有關更多詳細資訊,您可以閱讀 Anthropic 關於此主題的論文。

溫度

溫度是一個參數,控制模型在文本生成過程中預測的隨機性。較高的溫度導致更具創意和多樣化的輸出,允許措辭中的多種變化,在虛構的情況下,答案中也有變化。較低的溫度導致更保守和確定性的輸出,堅持最可能的措辭和答案。調整溫度使用戶能夠鼓勵語言模型探索罕見、不尋常或令人驚訝的單詞選擇和序列,而不是僅選擇最可能的預測。

用戶可能會在 API 中遇到非確定性。即使溫度設置為 0,結果也不會完全確定,相同的輸入可能在 API 調用中產生不同的輸出。這適用於 Anthropic 的第一方推理服務和通過第三方雲提供商的推理。

TTFT(首個令牌的時間)

首個令牌的時間 (TTFT) 是一個性能指標,測量語言模型在接收提示後生成其輸出的第一個令牌所需的時間。它是模型響應能力的重要指標,特別適用於互動應用、聊天機器人和實時系統,用戶期望快速的初始反饋。較低的 TTFT 表示模型可以更快地開始生成回應,提供更無縫和引人入勝的用戶體驗。影響 TTFT 的因素包括模型大小、硬體功能、網路條件以及提示的複雜性。

令牌

令牌是語言模型的最小個別單位,可以對應於單詞、子詞、字符,甚至字節(在 Unicode 的情況下)。對於 Claude,一個令牌大約代表 3.5 個英文字符,儘管確切的數字可能因使用的語言而異。令牌在「文本」級別與語言模型互動時通常是隱藏的,但在檢查語言模型的確切輸入和輸出時變得相關。當 Claude 被提供要評估的文本時,文本(由一系列字符組成)被編碼為一系列令牌供模型處理。較大的令牌在推理和預訓練期間實現數據效率(並在可能時被利用),而較小的令牌允許模型處理不常見或從未見過的單詞。令牌化方法的選擇可能會影響模型的性能、詞彙表大小以及處理詞彙外單詞的能力。

Was this page helpful?

  • HHH
  • LLM
  • MCP(模型上下文協議)
  • MCP 連接器
  • RAG(檢索增強生成)
  • RLHF
  • TTFT(首個令牌的時間)