在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

微軟正式發布一個27億參數的語言模型—Phi-2

AI科技大本營 ? 來源:CSDN ? 2023-12-14 15:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

先后和 OpenAI、Meta 牽手推動大模型發展的微軟,也正在加快自家小模型的迭代。就在今天,微軟正式發布了一個 27 億參數的語言模型——Phi-2。這是一種文本到文本的人工智能程序,具有出色的推理和語言理解能力。

同時,微軟研究院也在官方 X 平臺上如是說道,“Phi-2 的性能優于其他現有的小型語言模型,但它足夠小,可以在筆記本電腦或者移動設備上運行”

Phi-2 的性能真能優于大它 25 倍的模型?

對于Phi-2 的發布,微軟研究院在官方公告的伊始便直言,Phi-2 的性能可與大它 25 倍的模型相匹配或優于。

這也讓人有些尷尬的事,不少網友評價道,這豈不是直接把 Google 剛發的 Gemini 最小型號的版本給輕松超越了?

9143919c-9a54-11ee-8b88-92fbcf53809c.png

那具體情況到底如何?

微軟通過時下一些如 Big Bench Hard (BBH)、常識推理(PIQA、WinoGrande、ARC easy 和 Challenge、SIQA)、語言理解(HellaSwag、OpenBookQA、MMLU(5-shot)、 SQuADv2、BoolQ)、數學(GSM8k)和編碼(HumanEval)等基準測試,將 Phi-2 與 7B 和 13B 參數的 Mistral 和 Llama-2 進行了比較。

最終得出僅擁有 27 億個參數的 Phi-2 ,超越了 Mistral 7B 和 Llama-2 7B 以及 13B 模型的性能。值得注意的是,與大它 25 倍的 Llama-2-70B 模型相比,Phi-2 還在多步推理任務(即編碼和數學)上實現了更好的性能。

914e0758-9a54-11ee-8b88-92fbcf53809c.png

此外,如上文所提及的,微軟研究人員也直接在基準測試中放上了其與Google 全新發布的 Gemini Nano 2 正面PK 的結果,不出所料,Phi-2盡管尺寸較小,但性能還是把Gemini Nano 2 超了。

91580fa0-9a54-11ee-8b88-92fbcf53809c.png

除了這些基準之外,研究人員似是在暗諷 Google 前幾日在Gemini 演示視頻中造假一事,因為當時 Google 稱其即將推出的最大、最強大的新人工智能模型 Gemini Ultra 能夠解決相當復雜的物理問題,并且甚至糾正學生的錯誤。

事實證明,盡管 Phi-2 的大小可能只是 Gemini Ultra 的一小部分,但它也能夠正確回答問題并使用相同的提示糾正學生。

9163d164-9a54-11ee-8b88-92fbcf53809c.png

微軟的改進

Phi-2 小模型之所以有如此亮眼的成績,微軟研究院在博客中解釋了原因。

一是提升訓練數據的質量。Phi-2 是一個基于 Transformer 的模型,其目標是預測下一個單詞,它在 1.4T 個詞組上進行了訓練,這些詞組來自 NLP 和編碼的合成數據集和網絡數據集,包括科學、日常活動和心理理論等用于教授模型常識和推理的內容。Phi-2 的訓練是在 96 個 A100 GPU 上耗時 14 天完成的。

其次,微軟使用創新技術進行擴展,將其知識嵌入到 27 億參數 Phi-2 中。

微軟指出,Phi-2 是一個基礎模型,沒有通過人類反饋強化學習(RLHF)進行調整,也沒有經過指導性微調。盡管如此,與經過對齊的現有開源模型相比,微軟觀察到在毒性和偏差方面,Phi-2 有更好的表現。

917381cc-9a54-11ee-8b88-92fbcf53809c.png

寫在最后

話說 Phi-2 的發布的確在小模型的性能上實現了突破,不過也有媒體發現它還存在很大的局限性。

因為根據微軟研究許可證顯示,其規定了 Phi -2 只能用于“非商業、非創收、研究目的”,而不是商業用途。因此,想要在其之上構建產品的企業就不走運了。






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3786

    瀏覽量

    137629
  • OpenAI
    +關注

    關注

    9

    文章

    1204

    瀏覽量

    8757
  • 大模型
    +關注

    關注

    2

    文章

    3087

    瀏覽量

    3979

原文標題:只有 27 億參數,微軟發布全新 Phi-2 模型!

文章出處:【微信號:AI科技大本營,微信公眾號:AI科技大本營】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為助力中國石油發布3000參數昆侖大模型

    5月28日,中國石油發布3000參數昆侖大模型,標志著中國石油在人工智能領域又邁出關鍵步,全力推動“人工智能+”行動走深走實。 ? 中國
    的頭像 發表于 05-29 09:19 ?478次閱讀
    華為助力中國石油<b class='flag-5'>發布</b>3000<b class='flag-5'>億</b><b class='flag-5'>參數</b>昆侖大<b class='flag-5'>模型</b>

    小身板大能量:樹莓派玩轉 Phi-2、Mistral 和 LLaVA 等AI大模型~

    你是否想過在自己的設備上運行自己的大型語言模型(LLMs)或視覺語言模型(VLMs)?你可能有過這樣的想法,但是想到要從頭開始設置、管理環
    的頭像 發表于 03-25 09:32 ?384次閱讀
    小身板大能量:樹莓派玩轉 <b class='flag-5'>Phi-2</b>、Mistral 和 LLaVA 等AI大<b class='flag-5'>模型</b>~

    在算力魔方上本地部署Phi-4模型

    智能水平上的大飛躍。它不僅達到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發布的GPT-4o模型。 本文我們將分享
    的頭像 發表于 01-15 11:05 ?478次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    微軟尋求在365 Copilot中引入非OpenAI模型

    擔心企業用戶在使用365 Copilot時面臨的成本和速度問題,因此正在尋求更多樣化的技術來源。盡管微軟與OpenAI之間有著緊密的合作關系,并允許微軟定制OpenAI的模型,但微軟
    的頭像 發表于 12-25 10:41 ?592次閱讀

    中國移動與中國石油發布700參數昆侖大模型

    近日,中國移動與中國石油在北京聯合舉辦了700參數昆侖大模型建設成果發布會,正式推出了這行業重量級的大
    的頭像 發表于 12-04 11:17 ?867次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是開源的大語言模型服務工具,它的核心目的是簡化大語言模型(LLMs)的本地部署
    的頭像 發表于 11-23 17:22 ?3675次閱讀
    用Ollama輕松搞定Llama 3.2 Vision<b class='flag-5'>模型</b>本地部署

    AMD發布10參數開源AI模型OLMo

    AMD公司近日宣布了項重大進展,推出了首個完全開放的10參數語言模型系列——AMD OLMo。這舉措為開發者和研究人員提供了強大的AI
    的頭像 發表于 11-12 18:08 ?756次閱讀

    從零開始訓練語言模型需要投資多少錢?

    ,前言 ? 在AI領域,訓練大型語言模型(LLM)是
    的頭像 發表于 11-08 14:15 ?752次閱讀
    從零開始訓練<b class='flag-5'>一</b><b class='flag-5'>個</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>需要投資多少錢?

    騰訊發布開源MoE大語言模型Hunyuan-Large

    的性能,標志著騰訊在自然語言處理領域邁出了重要的步。 據了解,Hunyuan-Large的總參數量高達389B(即3890),這數字遠
    的頭像 發表于 11-06 10:57 ?694次閱讀

    語言模型如何開發

    語言模型的開發是復雜且細致的過程,涵蓋了數據準備、模型架構設計、訓練、微調和部署等多個階段。以下是對大
    的頭像 發表于 11-04 10:14 ?583次閱讀

    蘋果發布300參數多模態AI大模型MM1.5

    蘋果近日推出了全新的多模態AI大模型MM1.5,該模型擁有高達300參數規模,是在前代MM1架構的基礎上進步發展而來的。
    的頭像 發表于 10-14 15:50 ?591次閱讀

    在英特爾酷睿Ultra7處理器上優化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三版本:mini(3.8B參數)、small(7B
    的頭像 發表于 08-30 16:58 ?1310次閱讀
    在英特爾酷睿Ultra7處理器上優化和部署<b class='flag-5'>Phi</b>-3-min<b class='flag-5'>模型</b>

    中國石油發布330參數昆侖大模型

    中國石油在近日于北京舉行的成果發布會上,震撼發布了擁有330參數的昆侖大模型,標志著中國能源化工行業正式邁入大
    的頭像 發表于 08-29 18:10 ?1318次閱讀

    Hugging Face科技公司推出SmolLM系列語言模型

    7月22日最新資訊,Hugging Face科技公司在語言模型領域再創新高,正式推出了SmolLM系列——款專為適應多樣計算資源而設計的緊湊型語言
    的頭像 發表于 07-23 16:35 ?650次閱讀

    谷歌Gemma 2語言模型升級發布,性能與安全性雙重飛躍

    近日,谷歌面向全球科研界與開發者群體隆重推出了全新升級的Gemma 2語言模型,標志著人工智能技術在語言處理領域的又次重大進步。此次
    的頭像 發表于 07-02 10:20 ?726次閱讀
    主站蜘蛛池模板: 免费性视频 | 男人操女人在线观看 | 午夜免费视频福利集合100 | 国产一级αv片免费观看 | 九色在线看 | 日韩一级片免费观看 | 久久福利青草精品资源站免费 | 三级理论手机在线观看视频 | 午夜一级成人 | 在线欧美国产 | 台湾久久 | 国模人体一区二区三区 | 色多多免费视频观看区一区 | 视频一区二区在线 | 很狠操 | 亚洲最新| 免费a级毛片出奶水 | 欲香欲色天天综合和网 | 黄色超污网站 | 亚洲国产精品自在现线让你爽 | 国产精品久久久久乳精品爆 | 国产精品资源 | 片黄免费 | 国产福利vr专区精品 | 色噜噜噜噜色 | 国产精品女仆装在线播放 | 日本片巨大的乳456线观看 | 香蕉视频色版在线观看 | 精品三级三级三级三级三级 | 免费的黄色毛片 | 黄色大秀视频 | 手机看片福利日韩国产 | 四虎黄色网址 | 手机在线观看毛片 | 天天摸天天操免费播放小视频 | 午夜影院在线观看免费 | 狠狠干狠狠色 | 怡红院色视频在线 | 日韩一级片在线播放 | 国产精品一区二区三 | vr性资源在线观看 |