電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))隨著AI計(jì)算開(kāi)始有著風(fēng)頭蓋過(guò)通用計(jì)算開(kāi)始,不少芯片廠商都將其視為下一輪技術(shù)革新。CPU、GPU、FPGA和ASIC紛紛投入到這輪AI革命中來(lái),但斬獲的戰(zhàn)果卻是有多有少。由于承載了絕大多數(shù)AI計(jì)算負(fù)載,GPU和ASIC成了市面上最炙手可熱的計(jì)算硬件。表面上來(lái)看,這是市場(chǎng)提供了兩種不同的靈活選擇,但面對(duì)利潤(rùn)如此高的AI市場(chǎng),兩者總得爭(zhēng)一個(gè)高下。
根據(jù)GMInsight的統(tǒng)計(jì),2022年全球AI芯片市場(chǎng)規(guī)模超過(guò)150億美元,預(yù)計(jì)將在2032年超過(guò)4000億美元,年復(fù)合增長(zhǎng)率高達(dá)35%。而在去年出貨量最大的依然是GPU,占比高達(dá)47%左右,第二名為占比34%的CPU,其次才是ASIC與FPGA,但ASIC已經(jīng)隱隱有迎頭趕超之勢(shì)。
選擇通用性還是專用性
從2016年左右,就一直流傳著這樣一個(gè)說(shuō)法,那就是AI計(jì)算作為特定負(fù)載的高性能計(jì)算,其未來(lái)肯定是屬于ASIC這樣的“專用芯片”。這個(gè)說(shuō)法似乎也沒(méi)錯(cuò),畢竟我們轉(zhuǎn)而看下目前排名前三的云巨頭們,亞馬遜、微軟和谷歌紛紛都選擇了自研ASIC,比如亞馬遜的Trainium和Inferentia、谷歌的TPU、英特爾的Gaudi以及微軟的Maia等。
Gaudi 2 /英特爾
要從通用性和專用性的角度來(lái)看,ASIC確實(shí)是最“專”的那個(gè)。即便是在GPU之外,CPU、FPGA的通用性也要遠(yuǎn)高于ASIC,但CPU并不適用于純AI負(fù)載,更多的是給AI計(jì)算起到輔助作用,其提供的算力占比并不算高,哪怕是英偉達(dá)的Grace這種宣稱為AI打造的CPU。而FPGA的應(yīng)用市場(chǎng)則比較固定,比如汽車、工業(yè)和金融科技等,難以在大規(guī)模的服務(wù)器端進(jìn)行部署。
由此看來(lái),ASIC確實(shí)是上佳的硬件之選。尤其是目前LLM占據(jù)AI應(yīng)用的主流,算法逐漸固定,反倒是專用的ASIC在性能、能效上占了上風(fēng),不再需要像過(guò)去一樣,一代算法一代芯片地不斷迭代。且隨著云服務(wù)廠商開(kāi)始擴(kuò)大AI服務(wù)器規(guī)模,ASIC顯然具備更強(qiáng)的擴(kuò)展性,大量出貨后也能控制好制造成本。
第一代TPU /谷歌
而且從谷歌的TPU設(shè)計(jì)來(lái)看,借助先進(jìn)的接口IP、Chiplet和EDA工具,在已有架構(gòu)上進(jìn)行迭代設(shè)計(jì)也開(kāi)始變得簡(jiǎn)單,更不用說(shuō)谷歌在TensorFlow上有著深厚的積累。云服務(wù)廠商幾乎評(píng)估了市面上所有具備商用可行性的AI芯片,如果他們沒(méi)有這個(gè)底氣是斷然不會(huì)選擇大規(guī)模部署的,而他們對(duì)ASIC的看好恰好說(shuō)明了這一點(diǎn)。英特爾這幾年開(kāi)始分離各種業(yè)務(wù),而Habana Labs的ASIC AI芯片業(yè)務(wù)雖然沒(méi)有創(chuàng)造可觀的營(yíng)收,英特爾卻依然看好這一業(yè)務(wù),也證明了ASIC的前景無(wú)限。
市場(chǎng)和開(kāi)發(fā)者依然偏愛(ài)GPU
但從市場(chǎng)和開(kāi)發(fā)者角度來(lái)看,GPU依舊是最吃香的,且牢牢占據(jù)主導(dǎo)地位,這又是為什么呢?前英特爾圖形部門負(fù)責(zé)人Raja Koduri也發(fā)表了一些自己的見(jiàn)解。首先,專用芯片的“專用”并不算穩(wěn)定,與絕大多數(shù)人認(rèn)知中不一樣的是,AI計(jì)算并非一成不變,也并不是簡(jiǎn)單的一堆矩陣乘法運(yùn)算。
而反觀GPU這邊,其系統(tǒng)架構(gòu)已經(jīng)經(jīng)過(guò)了20多年的演進(jìn),比如頁(yè)表、內(nèi)存管理、中斷處理和調(diào)試等,這些已經(jīng)成了支持商用軟件棧落地的必要因素。而ASIC在這方面確實(shí)有所欠缺,反而將不少重?fù)?dān)甩給了軟件開(kāi)發(fā)者。而Raja認(rèn)為,如今并沒(méi)有太多年輕的軟件開(kāi)發(fā)者進(jìn)入行業(yè),所以絕大多數(shù)公司都還在爭(zhēng)搶為數(shù)不多的老將。
需要注意的是,Raja此處指的軟件開(kāi)發(fā)者并非那些模型/算法開(kāi)發(fā)者,在這類軟件開(kāi)發(fā)者上依然新秀層出不窮,但反觀系統(tǒng)軟件工程師,比如底層驅(qū)動(dòng)開(kāi)發(fā)者,就確實(shí)相對(duì)較少了。英偉達(dá)雖說(shuō)也常有人員變動(dòng),但其在這類軟件的開(kāi)發(fā)上,至少比初創(chuàng)企業(yè)領(lǐng)先10多年。
再拿常見(jiàn)的AI基準(zhǔn)測(cè)試MLPerf為例,這個(gè)對(duì)訓(xùn)練和推理性能提供公平評(píng)估的榜單,幾乎所有的MLPerf應(yīng)用都是原生基于CUDA開(kāi)發(fā)。且原本GPU在AI計(jì)算效能上的劣勢(shì),也隨著英偉達(dá)這幾代不斷添加TensorCore而得到了改善。ASIC的AI加速器雖然理論性能占優(yōu),但始終沒(méi)法拉開(kāi)較大差距。
對(duì)AI硬件的未來(lái)憧憬
即便目前AI硬件生態(tài)向好,但要想各類硬件都能活下去創(chuàng)造良性的競(jìng)爭(zhēng),我們也可以做一些“愿望清單”。首先,雖然各大AI芯片廠商都在宣揚(yáng)自己在大模型下的優(yōu)異表現(xiàn),然而對(duì)于那些沒(méi)法全塞進(jìn)內(nèi)存里的大模型的訓(xùn)練和推理來(lái)說(shuō),英偉達(dá)的GPU依然是唯一的可行方案,其他廠商明年還是應(yīng)該繼續(xù)努力。
第二則是軟件生態(tài)的兼容性,對(duì)于GPU廠商、云服務(wù)廠商之外的第三方AI芯片廠商,還是應(yīng)該加強(qiáng)對(duì)各類模型的兼容性,特別是要做到開(kāi)箱即用。比如英特爾的Gaudi現(xiàn)在已經(jīng)投入云服務(wù)商的服務(wù)器中正式使用了,且從性能角度來(lái)看著實(shí)不賴,但對(duì)于PyTorch的支持并不像英偉達(dá)的CUDA和AMD的ROCm般順暢。連英特爾都受制于此,可想而知其他的ASIC AI芯片廠商要付出多大的成本和精力了。
另一個(gè)做法就是AI芯片廠商自己下場(chǎng)做大模型,如果廠商有這個(gè)軟件開(kāi)發(fā)實(shí)力的話,自己根據(jù)自研芯片開(kāi)發(fā)大模型是最好的,無(wú)論模型的架構(gòu)和芯片的架構(gòu)怎么演進(jìn),都在自己的把控范圍內(nèi)。畢竟像浪潮這樣的服務(wù)器廠商,都已經(jīng)下場(chǎng)開(kāi)發(fā)大模型了,更為上游的谷歌也已經(jīng)投身其中。但這種方式也存在一個(gè)問(wèn)題,那就是其模型和硬件往往都會(huì)選擇閉源,這也就意味著放棄了龐大的開(kāi)源開(kāi)發(fā)生態(tài),很難帶動(dòng)相關(guān)AI應(yīng)用的真正騰飛。
第三是性能優(yōu)化,在AI芯片廠商與軟件開(kāi)發(fā)社區(qū)的不懈努力下,我們看到不同硬件之間的軟件兼容性已經(jīng)有了可觀的改善,但性能問(wèn)題仍然擺在臺(tái)前,即便是英特爾、AMD和蘋果這樣的大廠也沒(méi)法徹底突破。所以在解決完兼容性的問(wèn)題后,AI芯片廠商還是要持續(xù)投入硬件利用率的優(yōu)化中去。當(dāng)然了,如果GPU之外的ASIC真的能做到GPU三倍以上的性能,以力大磚飛之勢(shì)力壓GPU也不是不可能。
寫在最后
我們現(xiàn)在處于AI硬件的“寒武紀(jì)爆發(fā)期”,從EDA廠商和晶圓廠的業(yè)績(jī)就可以看出,AI芯片無(wú)論是新的設(shè)計(jì)還是制造都沒(méi)有止步,市面上公開(kāi)提供的選擇就足以令人眼花繚亂了,還有不少初創(chuàng)企業(yè)處于“隱身階段”,或是在等待先進(jìn)封裝的產(chǎn)能。不管如何,2024年都應(yīng)該會(huì)有更多的產(chǎn)品面市。
AI應(yīng)用開(kāi)發(fā)者固然沒(méi)法一個(gè)個(gè)買來(lái)測(cè)試,好在云服務(wù)廠商提供了AI服務(wù)器的租賃選項(xiàng),在上面跑一遍自己的AI任務(wù)就能對(duì)其性能和開(kāi)發(fā)難易度有個(gè)大致了解,畢竟AI應(yīng)用的落地不在于跑矩陣乘法計(jì)算有多快,而在于開(kāi)發(fā)者愿不愿意選擇這個(gè)開(kāi)發(fā)平臺(tái)的硬件與軟件。
-
asic
+關(guān)注
關(guān)注
34文章
1241瀏覽量
121750 -
gpu
+關(guān)注
關(guān)注
28文章
4883瀏覽量
130423
發(fā)布評(píng)論請(qǐng)先 登錄
摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

極速部署!GpuGeek提供AI開(kāi)發(fā)者的云端GPU最優(yōu)解

FPGA+AI王炸組合如何重塑未來(lái)世界:看看DeepSeek東方神秘力量如何預(yù)測(cè)......
AI推理帶火的ASIC,開(kāi)發(fā)成敗在此一舉!

GPU加速計(jì)算平臺(tái)的優(yōu)勢(shì)
GPU云計(jì)算服務(wù)怎么樣
GPU是如何訓(xùn)練AI大模型的
《CST Studio Suite 2024 GPU加速計(jì)算指南》
《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變
FPGA和ASIC在大模型推理加速中的應(yīng)用

GPU加速計(jì)算平臺(tái)是什么
AI芯片的混合精度計(jì)算與靈活可擴(kuò)展
為什么GPU對(duì)AI如此重要?

評(píng)論