「上下文視窗」是指語言模型在生成新文本時可以回顧和參考的文本量。這與語言模型訓練時使用的大量語料庫不同,而是代表模型的「工作記憶」。較大的上下文視窗允許模型理解和回應更複雜、更長的提示,而較小的上下文視窗可能會限制模型處理較長提示或在延伸對話中保持連貫性的能力。
請參閱我們的理解上下文視窗指南以了解更多資訊。
微調是使用額外資料對預訓練語言模型進行進一步訓練的過程。這會使模型開始表示和模仿微調資料集的模式和特徵。Claude 不是一個裸語言模型;它已經被微調為一個有用的助手。我們的 API 目前不提供微調服務,但如果您有興趣探索此選項,請聯繫您的 Anthropic 聯絡人。微調可用於將語言模型適應特定領域、任務或寫作風格,但需要仔細考慮微調資料及其對模型效能和偏差的潛在影響。
這三個 H 代表 Anthropic 確保 Claude 對社會有益的目標:
在生成式 AI 和大型語言模型的背景下,延遲是指模型回應給定提示所需的時間。它是提交提示和接收生成輸出之間的延遲。較低的延遲表示更快的回應時間,這對於即時應用程式、聊天機器人和互動體驗至關重要。可能影響延遲的因素包括模型大小、硬體能力、網路條件,以及提示和生成回應的複雜度。
大型語言模型(LLMs)是具有大量參數的 AI 語言模型,能夠執行各種令人驚訝的有用任務。這些模型在大量文本資料上進行訓練,可以生成類似人類的文本、回答問題、摘要資訊等。Claude 是一個基於大型語言模型的對話助手,經過微調並使用 RLHF 進行訓練,使其更加有用、誠實和無害。
模型上下文協定(MCP)是一個開放協定,標準化了應用程式向 LLM 提供上下文的方式。就像 AI 應用程式的 USB-C 連接埠一樣,MCP 提供了一種統一的方式將 AI 模型連接到不同的資料來源和工具。MCP 使 AI 系統能夠在互動中保持一致的上下文,並以標準化的方式存取外部資源。請參閱我們的 MCP 文件以了解更多資訊。
MCP 連接器是一項功能,允許 API 使用者直接從 Messages API 連接到 MCP 伺服器,而無需建構 MCP 客戶端。這使得透過 Claude API 與 MCP 相容的工具和服務實現無縫整合。MCP 連接器支援工具呼叫等功能,目前處於公開測試階段。請參閱我們的 MCP 連接器文件以了解更多資訊。
預訓練是在大量未標記文本語料庫上訓練語言模型的初始過程。以 Claude 為例,自迴歸語言模型(如 Claude 的底層模型)經過預訓練來根據文件中先前的文本上下文預測下一個詞。這些預訓練模型本身並不擅長回答問題或遵循指令,通常需要深厚的提示工程技能才能引出所需的行為。微調和 RLHF 用於改進這些預訓練模型,使其在更廣泛的任務中更加實用。
檢索增強生成(RAG)是一種將資訊檢索與語言模型生成相結合的技術,以提高生成文本的準確性和相關性,並更好地將模型的回應建立在證據基礎上。在 RAG 中,語言模型透過外部知識庫或一組傳入上下文視窗的文件來增強。資料在查詢發送到模型時於執行時檢索,儘管模型本身不一定會檢索資料(但可以透過工具使用和檢索函數來實現)。在生成文本時,必須首先根據輸入提示從知識庫中檢索相關資訊,然後將其與原始查詢一起傳遞給模型。模型使用這些資訊來引導其生成的輸出。這使模型能夠存取和利用超出其訓練資料的資訊,減少對記憶的依賴,並提高生成文本的事實準確性。RAG 對於需要最新資訊、特定領域知識或明確引用來源的任務特別有用。然而,RAG 的有效性取決於外部知識庫的品質和相關性,以及在執行時檢索到的知識。
基於人類回饋的強化學習(RLHF)是一種用於訓練預訓練語言模型以符合人類偏好方式行為的技術。這可以包括幫助模型更有效地遵循指令或更像聊天機器人。人類回饋包括對兩個或更多範例文本進行排名,強化學習過程鼓勵模型偏好與排名較高的輸出相似的結果。Claude 已使用 RLHF 進行訓練,成為更有用的助手。如需更多詳細資訊,您可以閱讀 Anthropic 關於此主題的論文。
溫度是一個控制模型在文本生成過程中預測隨機性的參數。較高的溫度會產生更具創意和多樣性的輸出,允許措辭上的多種變化,在虛構作品的情況下,答案也會有所變化。較低的溫度會產生更保守和確定性的輸出,堅持最可能的措辭和答案。調整溫度使使用者能夠鼓勵語言模型探索罕見、不常見或令人驚訝的詞彙選擇和序列,而不是僅選擇最可能的預測。
使用者可能會在 API 中遇到非確定性。即使溫度設定為 0,結果也不會完全確定性,相同的輸入在不同的 API 呼叫中可能會產生不同的輸出。這適用於 Anthropic 的第一方推論服務以及透過第三方雲端供應商的推論。
首個 Token 時間(TTFT)是一個效能指標,衡量語言模型在接收提示後生成其輸出的第一個 token 所需的時間。它是模型回應能力的重要指標,對於使用者期望快速初始回饋的互動應用程式、聊天機器人和即時系統尤為相關。較低的 TTFT 表示模型可以更快地開始生成回應,提供更流暢和引人入勝的使用者體驗。可能影響 TTFT 的因素包括模型大小、硬體能力、網路條件和提示的複雜度。
Tokens 是語言模型的最小個別單位,可以對應於詞、子詞、字元,甚至位元組(在 Unicode 的情況下)。對於 Claude,一個 token 大約代表 3.5 個英文字元,但確切數量可能因使用的語言而異。在「文本」層級與語言模型互動時,tokens 通常是隱藏的,但在檢查語言模型的確切輸入和輸出時就變得相關。當 Claude 被提供文本進行評估時,文本(由一系列字元組成)會被編碼為一系列 tokens 供模型處理。較大的 tokens 在推論和預訓練期間實現資料效率(並在可能時被使用),而較小的 tokens 允許模型處理不常見或從未見過的詞彙。分詞方法的選擇可能會影響模型的效能、詞彙量大小以及處理詞彙表外詞彙的能力。
Was this page helpful?