2023年,“生成式人工智能”無疑是科技行業(yè)最熱門的術語。
OpenAI推出的生成應用ChatGPT引發(fā)了市場狂熱,促使各科技巨頭紛紛加入競爭。
據(jù)TechNews報道,目前NVIDIA通過提供AI加速器占據(jù)市場主導地位,但這導致了市場上其AI加速器的短缺。甚至OpenAI也打算開發(fā)自己的芯片,以避免受到供應鏈緊張的限制。
在當前的AI發(fā)展浪潮中,NVIDIA無疑是AI算力的領跑者。其A100/H100系列芯片已獲得全球人工智能市場頂級客戶的訂單。
華爾街投資銀行 Bernstein Research 的分析師 Stacy Rasgon 表示,使用 ChatGPT 進行的每次查詢的成本約為 0.04 美元。如果 ChatGPT 查詢規(guī)模擴大到 Google 搜索量的十分之一,初始部署將需要價值約 481 億美元的 GPU 進行計算,每年需要價值約 160 億美元的芯片來維持運營,以及類似的相關芯片執(zhí)行任務的數(shù)量。
? 因此,無論是為了降低成本、減少對NVIDIA的過度依賴,甚至是進一步增強議價能力,全球科技巨頭都啟動了開發(fā)自己的AI加速器的計劃。
? 據(jù)科技媒體 The Information援引行業(yè)消息人士報道,微軟、OpenAI、特斯拉、谷歌、亞馬遜和 Meta 等六大全球科技巨頭都在投資開發(fā)自己的 AI 加速器芯片。這些公司預計將與 NVIDIA 的旗艦 H100 AI 加速器芯片展開競爭。
? ?科技巨頭自研芯片進展
微軟
? 2023年11月,微軟在年度 IT 專業(yè)人士和開發(fā)者大會 Ignite 上推出兩款自研芯片 —— 云端 AI 芯片微軟 Azure Maia 100、服務器 CPU 微軟 Azure Cobalt 100。
? Maia 100 是微軟為微軟云中大語言模型訓練和推理而設計的第一款AI芯片,采用臺積電 5nm 工藝,擁有 1050 億顆晶體管,針對 AI 和生成式 AI 進行了優(yōu)化,支持微軟首次實現(xiàn)的低于 8 位數(shù)據(jù)類型(MX 數(shù)據(jù)類型)。微軟已經(jīng)在用搜索引擎 Bing 和 Office AI 產(chǎn)品測試該芯片。
? Cobalt 100 是微軟為微軟云定制開發(fā)的第一款 CPU,也是微軟打造的第一款完整的液冷服務器 CPU,采用 Arm Neoverse CSS 設計、128 核。
? 微軟還定制設計了一個 AI 端到端機架,并搭配了一個“助手”液冷器,原理類似于汽車散熱器。
? 兩款芯片明年年初開始在微軟數(shù)據(jù)中心推出,最初為微軟的 Copilot 或 Azure OpenAI Service 等服務提供動力。微軟已經(jīng)在設計第二代版本的 Azure Maia AI 芯片和 Cobalt CPU 系列。
? 這些芯片代表了微軟交付基礎設施系統(tǒng)的最后一塊拼圖 —— 從芯片、軟件和服務器到機架和冷卻系統(tǒng)的一切,微軟這些系統(tǒng)都是由上到下設計的,可以根據(jù)內(nèi)部和客戶的工作負載進行優(yōu)化。
? OpenAI
? 據(jù)悉,OpenAI也正在探索自研AI芯片,同時開始評估潛在收購目標。在其招聘網(wǎng)站上,最近也出現(xiàn)了AI硬件共同開發(fā)、評估相關崗位。OpenAI擬籌建的合資企業(yè)與總部位于阿布扎比的 G42 和軟銀集團等潛在投資者進行了討論,旨在解決當前和預期的人工智能相關芯片供應短缺問題。
? 毫無疑問,該項目的財務和運營規(guī)模顯然是巨大的。Altman僅與G42的討論就集中在籌集80億至100億美元之間。該項目的全部范圍和合作伙伴名單仍處于早期階段,這表明建立此類設施網(wǎng)絡需要大量投資和時間。
? 盡管還不清楚Altman是否計劃購買一家成熟的代工廠來生產(chǎn)AI芯片,或建立一個全新的晶圓廠網(wǎng)絡來滿足OpenAI及其潛在合作伙伴的需求,但此前有人分析Altman可能會考慮把參與投資的芯片公司納入麾下,包括CerebrasRain NeuromorphicsAtomic SemiCerebras、Rain Neuromorphics、tomic Semi。
? 特斯拉
? 電動汽車制造商特斯拉也積極參與AI加速器芯片的開發(fā)。特斯拉主要圍繞自動駕駛需求,迄今為止推出了兩款AI芯片:全自動駕駛(FSD)芯片和Dojo D1芯片。
? FSD芯片用于特斯拉汽車的自動駕駛系統(tǒng),而Dojo D1芯片則用于特斯拉的超級計算機。它充當通用 CPU,構建 AI 訓練芯片來為 Dojo 系統(tǒng)提供動力。
? 谷歌
? Google 也早在 2013 年就秘密研發(fā)專注 AI 機器學習算法芯片,并用于云計算數(shù)據(jù)中心,取代英偉達 GPU。
? 這款TPU自研芯片2016年公開,為深度學習模型執(zhí)行大規(guī)模矩陣運算,如自然語言處理、計算機視覺和推薦系統(tǒng)模型。Google 其實在 2020 年的資料中心便建構 AI 芯片 TPU v4,直到 2023 年 4 月才首次公開細節(jié)。
? 2023年12月6日,谷歌官宣了全新的多模態(tài)大模型Gemini,包含了三個版本,根據(jù)谷歌的基準測試結果,其中的Gemini Ultra版本在許多測試中都表現(xiàn)出了“最先進的性能”,甚至在大部分測試中完全擊敗了OpenAI的GPT-4。
? 而在Gemini出盡了風頭的同時,谷歌還丟出了另一個重磅炸彈——全新的自研芯片TPU v5p,它也是迄今為止功能最強大的TPU。
? 根據(jù)官方提供的數(shù)據(jù),每個TPU v5p pod在三維環(huán)形拓撲結構中,通過最高帶寬的芯片間互聯(lián)(ICI),以4800 Gbps/chip的速度將8960個芯片組合在一起,與TPU v4相比,TPU v5p的FLOPS和高帶寬內(nèi)存(HBM)分別提高了2倍和3倍。
? 除此之外,TPU v5p訓練大型 LLM 模型的速度比上一代TPU v4快2.8倍,利用第二代SparseCores,TPU v5p訓練嵌入密集模型的速度比TPU v4快1.9倍。TPU v5p在每個pod的總可用FLOPs方面的可擴展性也比TPU v4高出4倍,且每秒浮點運算次數(shù)(FLOPS)增加了一倍,單個pod中的芯片數(shù)量也增加了一倍,大大提高了訓練速度的相對性能。
? 亞馬遜
? 亞馬遜旗下的云計算服務提供商亞馬遜網(wǎng)絡服務(AWS),自2013年推出Nitro1芯片以來,它一直是開發(fā)自有芯片的先驅(qū)。AWS此后開發(fā)了自研芯片的三個產(chǎn)品線,包括網(wǎng)絡芯片、服務器芯片、AI機器學習芯片。
? 其中,AWS自研AI芯片陣容包括推理芯片Inferentia和訓練芯片Trainium。
? 此外,AWS于2023年初推出了專為人工智能設計的Inferentia 2(Inf2)。它將計算性能提高了三倍,同時將加速器總內(nèi)存增加了四分之一。
? 它通過芯片之間直接超高速連接支持分布式推理,可處理多達1750億個參數(shù),使其成為當今AI芯片市場上最強大的內(nèi)部制造商。
? Meta
? Meta 在 2022 年之前繼續(xù)使用專為加速 AI 算法而定制的 CPU 和定制芯片組來執(zhí)行其 AI 任務。然而,由于 CPU 在執(zhí)行 AI 任務方面與 GPU 相比效率較低,Meta 放棄了 2022 年大規(guī)模推出定制設計芯片的計劃,而是選擇購買價值數(shù)十億美元的 NVIDIA GPU。
? 盡管如此,在其他主要廠商開發(fā)內(nèi)部人工智能加速器芯片的浪潮中,Meta 也涉足內(nèi)部芯片開發(fā)。
? 2023年5月19日,Meta進一步公布了其人工智能訓練和推理芯片項目。該芯片功耗僅為25瓦,是NVIDIA同類產(chǎn)品功耗的1/20。它采用RISC-V開源架構。據(jù)市場報道,該芯片也將采用臺積電的7納米制造工藝生產(chǎn)。
? 美國去年10月擴大禁止向中國出售先進人工智能芯片,英偉達雖然迅速為中國市場量身訂造新芯片,以符合美國出口規(guī)定。但近日有消息指出,阿里巴巴、騰訊等中國云計算大客戶,并不熱衷購買功能降低的減規(guī)版H20芯片,轉成國內(nèi)采購。策略轉變顯示透過部分先進半導體訂單轉給中國公司,將更依賴中國本土廠商芯片。
? TrendForce表示,中國云端業(yè)者約八成高階AI芯片購自英偉達,五年內(nèi)可能降至50%~60%。若美國繼續(xù)加強芯片管制,可能對英偉達中國地區(qū)銷售造成額外壓力。
? 審核編輯:黃飛
評論