在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

優于10倍參數模型!微軟發布Orca 2 LLM

jf_WZTOguxH ? 來源:AI前線 ? 2023-12-26 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟發布 Orca 2 LLM,這是 Llama 2 的一個調優版本,性能與包含 10 倍參數的模型相當,甚至更好。Orca 2 使用了一個合成訓練數據集和一項稱為 Prompt Erasure(提示詞擦除) 的新技術來實現這一性能。

Orca 2 使用了師生模式的訓練方案,其中一個較大、較強的 LLM 作為另一個較小的 LLM(學生)的老師,老師的目標是提升學生的性能,使其與更大模型的性能相媲美。微軟的訓練技術教會較小的模型多種推理技巧,并教其如何為特定任務選擇最有效的技巧。

為此,老師被賦予了復雜的提示詞來觸發某種推理行為。不過,在一種被稱為 Prompt Erasure 的方案中,學生只得到任務要求和期望的響應,而不是老師的提示詞。在基準測試中,一個擁有 13B 參數的 Orca 2 模型的表現超過了一個 13B 參數的基準 Llama 2 模型,提升了 47.54%。而一個擁有 7B 參數的 Orca 2 模型在推理任務方面與一個擁有 70B 參數的 Llama 2 模型相當,甚至更好。

盡管像 ChatGPT 這樣的 LLM 在給定少量提示詞的情況下通常表現良好,但由于其內存和計算需求較大,托管這些模型極具有挑戰性。經過調優的較小的模型也可以表現良好,許多研究人員已經在研究使用較大 LLM 生成的合成數據集對它們進行訓練。

InfoQ 最近報道了谷歌的 Distilling Step-by-Step 方法,該方法會讓老師 LLM 自動生成一個小型的調優數據集,其中包含輸入和輸出標簽,以及為何選擇輸出標簽的“基本原理”。InfoQ 還報道了 Stability AI 的 Stable Beluga 模型,它使用微軟原始的 Orca 1 方案進行訓練,該方案使用了 Explanation Tuning,其中老師 LLM 被提示“生成詳細答案”。

與 Orca 1 類似,Orca 2 訓練數據集是由老師 LLM 生成的,而老師 LLM 收到了詳細的提示詞。然而,微軟新的訓練方法 Cautious Reasoning 將訓練任務與提示詞相結合,引導老師 LLM 使用特定的問題解決策略,如“一步一步”或“解釋你的答案”。然后在學生的訓練過程中,老師的提示詞被刪除,這促使學生學會選擇正確的策略。

為了評估這種方法,微軟將 Orca 2 模型的性能與幾個基準模型進行了比較,包括 Llama 2、ChatGPT(GPT-3.5)和 GPT-4。基準任務包括推理、語言理解、文本完成和摘要。在推理基準測試中,13B 參數 Orca 2 模型優于除 ChatGPT 和 GPT-4 之外的所有基準。他們還發現,給 Orca 2 一個“謹慎”的系統提示詞(“你是一個謹慎的助手,你會仔細遵循指示”)相比無系統提示會略微提升其性能。

有幾位用戶在 X 上發表了關于 Orca 2 的帖子。一位用戶指出:“你不需要用‘一步一步解釋’這樣的技巧來提示它。它自己知道。” AI 研究員 Rudi Ranck 寫道:

許多絕妙的想法都很簡單……就像 Orca 2 中的“提示詞擦除”一樣:完整的提示詞不會呈現給模型,而只呈現任務和答案(它過濾了生成這些答案所使用的完整提示詞)。這有助于模型在更高層次上制定策略。這是一篇非常好的論文。我強烈建議通讀全文。







審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • ChatGPT
    +關注

    關注

    29

    文章

    1589

    瀏覽量

    9030
  • LLM
    LLM
    +關注

    關注

    1

    文章

    325

    瀏覽量

    817

原文標題:微軟發布 Orca 2 LLM,表現優于 10 倍參數模型

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    小白學大模型:從零實現 LLM語言模型

    在當今人工智能領域,大型語言模型LLM)的開發已經成為一個熱門話題。這些模型通過學習大量的文本數據,能夠生成自然語言文本,完成各種復雜的任務,如寫作、翻譯、問答等。https
    的頭像 發表于 04-30 18:34 ?472次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現 <b class='flag-5'>LLM</b>語言<b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現狀

    領域的最新研究進展,特別是自DeepSeekR1發布后興起的推理時間計算擴展相關內容。在LLM中實施和改進推理簡單來說,基于LLM的推理模型是一種旨在通過生成中間
    的頭像 發表于 04-03 12:09 ?433次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現狀

    無法在OVMS上運行來自Meta的大型語言模型LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發表于 03-05 08:07

    字節跳動發布豆包大模型1.5 Pro

    3.5 Sonnet等模型。 該模型采用大規模稀疏MoE架構,使用較小的激活參數進行預訓練,卻能等效7激活參數的Dense
    的頭像 發表于 01-23 10:24 ?615次閱讀

    新品| LLM630 Compute Kit,AI 大語言模型推理開發平臺

    LLM630LLM推理,視覺識別,可開發,靈活擴展···LLM630ComputeKit是一款AI大語言模型推理開發平臺,專為邊緣計算和智能交互應用而設計。該套件的主板搭載愛芯AX630CSoC
    的頭像 發表于 01-17 18:48 ?672次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大語言<b class='flag-5'>模型</b>推理開發平臺

    小白學大模型:構建LLM的關鍵步驟

    隨著大規模語言模型LLM)在性能、成本和應用前景上的快速發展,越來越多的團隊開始探索如何自主訓練LLM模型。然而,是否從零開始訓練一個LLM
    的頭像 發表于 01-09 12:12 ?935次閱讀
    小白學大<b class='flag-5'>模型</b>:構建<b class='flag-5'>LLM</b>的關鍵步驟

    什么是LLMLLM在自然語言處理中的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型LLM)的出現,標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數據訓練,使得機器能夠以前
    的頭像 發表于 11-19 15:32 ?3616次閱讀

    車載大模型分析揭示:存儲帶寬對性能影響遠超算力

    車載大模型的定義尚無,傳統大模型LLM參數一般在70億至2000億之間,而早期的CNN模型參數
    的頭像 發表于 11-09 10:36 ?1386次閱讀
    車載大<b class='flag-5'>模型</b>分析揭示:存儲帶寬對性能影響遠超算力

    LLM技術的未來趨勢分析

    。 技術進步 1. 模型規模的增長 隨著計算能力的提升和數據集的擴大,LLM的規模也在不斷增長。更大的模型能夠捕捉更復雜的語言模式,提高任務的性能。例如,GPT-3模型擁有1750億個
    的頭像 發表于 11-08 09:35 ?1106次閱讀

    如何訓練自己的LLM模型

    訓練自己的大型語言模型LLM)是一個復雜且資源密集的過程,涉及到大量的數據、計算資源和專業知識。以下是訓練LLM模型的一般步驟,以及一些關鍵考慮因素: 定義目標和需求 : 確定你的
    的頭像 發表于 11-08 09:30 ?1477次閱讀

    新品|LLM Module,離線大語言模型模塊

    LLM,全稱大語言模型(LargeLanguageModel)。是一種基于深度學習的人工智能模型。它通過大量文本數據進行訓練,從而能夠進行對話、回答問題、撰寫文本等其他任務
    的頭像 發表于 11-02 08:08 ?1019次閱讀
    新品|<b class='flag-5'>LLM</b> Module,離線大語言<b class='flag-5'>模型</b>模塊

    理解LLM中的模型量化

    在本文中,我們將探討一種廣泛采用的技術,用于減小大型語言模型LLM)的大小和計算需求,以便將這些模型部署到邊緣設備上。這項技術稱為模型量化。它使得人工智能
    的頭像 發表于 10-25 11:26 ?681次閱讀
    理解<b class='flag-5'>LLM</b>中的<b class='flag-5'>模型</b>量化

    請問InDTU IHDMP協議使用的CRC校驗使用的什么參數模型

    InDTU IHDMP協議使用的CRC校驗使用的什么參數模型
    發表于 07-25 06:39

    LLM模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM
    的頭像 發表于 07-24 11:38 ?1779次閱讀

    模型LLM與ChatGPT的技術原理

    在人工智能領域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發表于 07-10 10:38 ?2038次閱讀
    主站蜘蛛池模板: 1024 cc香蕉在线观看看中文 | 久久免| 亚洲狠狠网站色噜噜 | 日本大片免费播放网站 | 在线最新版www资源网 | 天堂网在线www最新版在线 | 免费在线成人网 | 色视频免费版高清在线观看 | 色婷婷视频在线观看 | 天天射日日射 | 日本一本高清视频 | 亚洲网在线 | 久久草在线视频播放 | 男人边吃奶边爱边做视频日韩 | 在线免费观看一级片 | 欧美成人精品福利网站 | 亚洲天堂视频一区 | jiucao在线观看精品 | 天天视频一区二区三区 | 狠狠躁夜夜躁人人爽天天天天 | 久久中文字幕综合婷婷 | 一本大道一卡二卡四卡 | 欧美极品xxxxⅹ另类 | 在线观看视频高清视频 | 日本一视频一区视频二区 | 久久久午夜精品理论片 | 三级理论在线 | 天堂在线中文无弹窗全文阅读 | 日本三区四区免费高清不卡 | 国产农村三片免费网站 | 偷偷久久 | 国产一区二区影院 | 国产在线a不卡免费视频 | 日本极度另类网站 | 99色在线播放 | 九色综合网 | 亚洲爱爱图片 | 国产亚洲精品美女久久久 | 亚洲视频色 | 久久久xxx| 国产nv精品你懂得 |