美光12層堆疊36GB HBM4能效領先業界,實現數據中心和云端AI加速。
隨著數據中心對AI訓練與推理工作負載需求的持續增長,高性能內存的重要性達到歷史新高。Micron Technology Inc.(美光科技股份有限公司,納斯達克股票代碼:MU)宣布已向多家主要客戶送樣其12層堆疊36GB HBM4內存。這一里程碑再次擴大了美光在AI內存性能和能效方面的領導地位。憑借其成熟的1β(1-beta)DRAM制程、經過驗證的12層先進封裝技術及功能強大的內存內建自測試(MBIST)功能,美光HBM4為開發下一代AI平臺的客戶及合作伙伴提供了無縫集成的解決方案。
重要飛躍
隨著生成式AI應用的不斷增長,高效管理推理能力的重要性與日俱增。美光HBM4內存具備2048位元接口,每個內存堆疊的傳輸速率超過2.0 TB/s,性能較前一代產品提升超60%1。這樣的擴展接口有助于實現高速通信與高吞吐量設計,進而提高大型語言模型和思維鏈推理系統的推理性能。簡而言之,HBM4將使AI加速器響應更迅速、推理更高效。
此外,延續美光前一代HBM3E內存2曾在業界樹立的HBM能效新標桿,HBM4的能效再度提升超20%,展現了美光更進一步的技術突破。這項進展能以最低功耗提供更大吞吐量,從而更大限度地提高數據中心的效率2。
隨著生成式AI應用場景的持續擴展,此顛覆性技術將為社會創造顯著價值。HBM4是加速洞察與創新突破的關鍵推動力,能夠促進醫療保健、金融和交通運輸等不同領域的進步與變革。
美光高級副總裁暨云端存儲事業部總經理Raj Narasimhan表示:“美光HBM4具備卓越的性能、更高的帶寬和業界領先的能效,印證了美光在內存技術和產品方面的領導地位。基于此前HBM3E部署所取得的矚目成就,我們將繼續通過HBM4及強大的AI內存和存儲解決方案組合引領創新。我們的HBM4生產進程與客戶下一代AI平臺的準備進度緊密配合,以確保無縫集成與適時擴大產量,滿足市場需求。”
1基于美光內部HBM4測試結果和已發布的HBM3E內存規格(2.0 TB/s對比1.2 TB/s的帶寬)
2根據美光內部模擬預測,以美光12層堆疊36GB HBM3E內存和類似競爭產品進行的比較
加速智慧革新:
美光在AI革命中的關鍵作用
近五十年來,美光不斷突破內存和存儲創新的邊界。如今,美光持續通過提供廣泛多元的解決方案,將數據轉化為智慧,推動從數據中心到端側設備的突破,進而加速AI發展。憑借HBM4,美光再次鞏固了其作為AI創新領域關鍵推手的地位,并成為客戶應對嚴苛解決方案的可靠合作伙伴。
-
內存
+關注
關注
8文章
3115瀏覽量
75053 -
美光
+關注
關注
5文章
725瀏覽量
52237 -
HBM4
+關注
關注
0文章
54瀏覽量
230
原文標題:美光HBM4已向主要客戶出貨,驅動下一代AI平臺落地
文章出處:【微信號:gh_195c6bf0b140,微信公眾號:Micron美光科技】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
HBM3E量產后,第六代HBM4要來了!

評論