據報道,硅谷晶圓芯片創企 Cerebras 近日公布了其 WSE-3 芯片型號,聲稱在保持相同能耗的基礎上,性能較前作 WSE-2 提升逾一倍。主要技術規格如下:
首先,WSE-3采用臺積電最新的5nm工藝制作(目前領先業界)。其次,該芯片擁有超過4萬億個晶體管以及90萬個AI核心,配合44GB片上SRAM高速緩存及三種可選片外存儲方案(分別是1.5TB、12TB與1.2PB)。此外,WSE-3還具備125 PFLOPS的AI運算能力。
Cerebras指出,新款CS-3系統基于WSE-3芯片設計,最高支持1.2PB的內存容量,適于訓練比GPT-4及Gemini更大的未來模型。借助獨特的邏輯內存空間技術,能將24000T模型參數集中儲存,大幅減輕了開發者負擔。
尤為值得關注的是,CS-3強大的卓越的訓練性能使其成為滿足大規模AI需求的最佳選擇,甚至可以在單日內完成70B模型的精煉。借助最大規模的2048套CS-3系統集群,僅僅一天便能夠完成長毛羊 70B 神經網絡(Netrep Tempo)模型的深度學習。同時,CS-3系統在用戶友好性設計方面也表現出色,與GPU相比,大模型訓練中的編碼量降低高達97%,更多人可以輕松掌握超大規模AI處理技能。
值得一提的是,阿聯酋G42財團已經表態將創建含64套 CS-3系統在內的Condor Galaxy 3超級計算機,預計綜合AI運算能力可達8 exaFLOPs。
-
芯片
+關注
關注
459文章
52471瀏覽量
440431 -
臺積電
+關注
關注
44文章
5751瀏覽量
169710 -
sram
+關注
關注
6文章
784瀏覽量
115922 -
晶體管
+關注
關注
77文章
10018瀏覽量
141569
發布評論請先 登錄
偉創力高效電源模塊在超大規模數據中心的應用
超大規模芯片驗證:基于AMD VP1902的S8-100原型驗證系統實測性能翻倍

納微半導體推出12kW超大規模AI數據中心電源
AI原生架構升級:RAKsmart服務器在超大規模模型訓練中的算力突破
谷歌新一代 TPU 芯片 Ironwood:助力大規模思考與推理的 AI 模型新引擎?
DeepSeek推動AI算力需求:800G光模塊的關鍵作用
偉創力如何應對超大規模數據中心建設挑戰
AI大模型的訓練數據來源分析
Zettabyte與緯創攜手打造臺灣首個超大規模AI數據中心
谷歌正在考慮在越南建設超大規模數據中心
超大規模集成電路(VLSI)中不可或缺的5種二極管

評論