針對ChatGPT等大型語言模型的推理,我們宣布推出一款新的Hopper GPU配備雙GPU NVLINK的PCIE H100
同時還可支持商用PCIE服務器輕松擴展
目前在云上唯一可以實際處理ChatGPT的GPU是HGX A100與適用于GPT-3處理的HGX A100相比,一臺搭載四對H100及雙GPU NVLINK的標準服務器的速度
H100可將大型語言模型的處理成本,降低一個數量級
Grace Hopper非常適合處理大型數據集,例如適用于推薦系統和大型語言模型的AI數據庫。
如今,利用大容量內存,CPU會存儲和查詢巨型嵌入表,然后將結果傳輸到GPU進行推理,借助Grace-Hopper, Grace可以查詢嵌入表,并將結果直接傳輸到Hopper速度比PCIE快7倍
GTC 2023主題直播地址:https://t.elecfans.com/live/2302.html
-
cpu
+關注
關注
68文章
11049瀏覽量
216144 -
服務器
+關注
關注
13文章
9717瀏覽量
87380 -
gtc
+關注
關注
0文章
73瀏覽量
4570 -
ChatGPT
+關注
關注
29文章
1588瀏覽量
8829
發布評論請先 登錄
英偉達擬再推中國特供GPU,今年6月量產!
立訊技術亮相英偉達GTC 2025大會

評論