日本多企業(yè)聯(lián)合科研組于昨日宣布推出Fugaku-LLM大模型,此模型基于Arm架構(gòu)的“富岳”超級(jí)計(jì)算機(jī)進(jìn)行培訓(xùn),呈現(xiàn)出顯著特性。
Fugaku-LLM模型項(xiàng)目自2023年5月起啟動(dòng),初始參加方包括富士通、東京工業(yè)大學(xué)、日本東北大學(xué)及日本理化學(xué)研究所(簡(jiǎn)稱理研)。至同年8月,又有三家合作伙伴——名古屋大學(xué)、CyberAgent(Cygames母公司)以及HPC-AI領(lǐng)域創(chuàng)新企業(yè)Kotoba Technologies加入。
在昨日公布的新聞稿中,研究團(tuán)隊(duì)表示他們成功發(fā)掘了富岳超級(jí)計(jì)算機(jī)的潛能,使矩陣乘法運(yùn)算速度提升六倍,通信速度提高三倍,從而證實(shí)大型純CPU超級(jí)計(jì)算機(jī)同樣適用于大模型訓(xùn)練。
Fugaku-LLM模型參數(shù)規(guī)模達(dá)13B,成為日本國(guó)內(nèi)最大的大型語言模型。該模型利用13824個(gè)富岳超級(jí)計(jì)算機(jī)節(jié)點(diǎn),在3800億個(gè)Token上進(jìn)行訓(xùn)練,其中60%為日語數(shù)據(jù),其余40%涵蓋英語、數(shù)學(xué)、代碼等內(nèi)容。
研究團(tuán)隊(duì)表示,F(xiàn)ugaku-LLM模型能夠在交流過程中自然運(yùn)用日語敬語等特殊表達(dá)方式。
在測(cè)試結(jié)果方面,該模型在日語MT-Bench模型基準(zhǔn)測(cè)試中的平均得分高達(dá)5.5,位列基于日本語料資源的開放模型之首;同時(shí),在人文社科類別的測(cè)試中獲得9.18的高分。
目前,F(xiàn)ugaku-LLM模型已在GitHub和Hugging Face平臺(tái)公開發(fā)布,外部研究人員和工程師可以在遵循許可協(xié)議的前提下,將該模型應(yīng)用于學(xué)術(shù)和商業(yè)領(lǐng)域。
-
cpu
+關(guān)注
關(guān)注
68文章
11069瀏覽量
216758 -
超級(jí)計(jì)算機(jī)
+關(guān)注
關(guān)注
2文章
472瀏覽量
42437 -
大模型
+關(guān)注
關(guān)注
2文章
3112瀏覽量
4016
發(fā)布評(píng)論請(qǐng)先 登錄
小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

AI原生架構(gòu)升級(jí):RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破
無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?
新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺(tái)

小白學(xué)大模型:構(gòu)建LLM的關(guān)鍵步驟

什么是LLM?LLM在自然語言處理中的應(yīng)用
LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別
新品|LLM Module,離線大語言模型模塊

評(píng)論