今日,微軟發(fā)布官方聲明,稱其開發(fā)的 Phi-2 2.7B 模型在多項(xiàng)指標(biāo)上超過了 Google 的 Gemini Nano-2 3.2B 模型。
Microsoft研發(fā)的Phi-2 2.7B模型
早前在 IT之家的報(bào)道中,微軟在Ignite 2023大會(huì)上首次披露了容納27億參數(shù)的Phi-2,在性能上較以往型號(hào)有明顯進(jìn)步。
去年六月份,微軟推出了包含13億參數(shù)的Phi-1,主要應(yīng)用于QA 問答、文本處理等領(lǐng)域。該模型使用大量高質(zhì)量數(shù)據(jù)進(jìn)行訓(xùn)練,在基準(zhǔn)測(cè)試中的表現(xiàn)甚至超過同類模型十倍以上。
今年九月份,微軟又進(jìn)一步推出了Phi-1.5版,盡管依舊僅含13億元參數(shù),但已可創(chuàng)作詩歌、電子郵件及故事,甚至可以對(duì)大量文本進(jìn)行總結(jié)概括。在常識(shí)、語言理解以及推理的基準(zhǔn)測(cè)試中,該版本的模型在部分領(lǐng)域已經(jīng)可以媲美甚至超越含有高達(dá)100億參數(shù)的同類模型。
現(xiàn)如今,Phi-2的出現(xiàn),使其所包含的參數(shù)數(shù)量達(dá)到驚人的27億,盡管與其他大型語言模型相比仍顯不足,它卻在邏輯推理和系統(tǒng)安全性能上展現(xiàn)出不容忽視的提升。通過適當(dāng)?shù)恼{(diào)整和定制化,小型的語言模型將成為云和邊緣應(yīng)用的得力助手。
Google研發(fā)的Gemini Nano-2 3.2B模型
針對(duì)面向小型設(shè)備本地操作設(shè)計(jì)的Gemini Nano,新升級(jí)的2.0版本有著高達(dá)32億的參數(shù),預(yù)計(jì)將首先配置在Pixel 8 Pro手機(jī)上。
就錄音功能而言,選擇所需的音頻文件后,用戶只需點(diǎn)擊“文本稿”標(biāo)簽,再點(diǎn)選上方的“總結(jié)”按鈕,該應(yīng)用便能迅速生成完整的主旨簡報(bào)。
而在用戶最為依賴的Gboard輸入法中,Gemini Nano的加入將極大程度提高交互的自然度,未來包括WhatsApp在內(nèi)的眾多應(yīng)用將會(huì)逐步引入這一更加人性化的功能。
-
微軟
+關(guān)注
關(guān)注
4文章
6641瀏覽量
104658 -
模型
+關(guān)注
關(guān)注
1文章
3393瀏覽量
49367 -
語言模型
+關(guān)注
關(guān)注
0文章
547瀏覽量
10372
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
谷歌 Gemini 2.0 Flash 系列 AI 模型上新
谷歌Gemini AI目標(biāo)年底用戶達(dá)5億
谷歌正式發(fā)布Gemini 2.0 性能提升近兩倍
谷歌發(fā)布Gemini 2.0 AI模型
谷歌計(jì)劃12月發(fā)布Gemini 2.0模型
聯(lián)發(fā)科新一代天璣旗艦芯片針對(duì)谷歌大語言模型Gemini Nano優(yōu)化
在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

chatglm2-6b在P40上做LORA微調(diào)

評(píng)論