超節點已成為國內外構建
大規模HBD域明確應用趨勢
技術驅動下,超節點已成為國內外構建大規模HBD域應用的關鍵趨勢。隨著千億到萬億參數MoE大模型并行訓練(尤其是專家并行和張量并行)對GPU間通信需求的激增,Scale-up超節點應運而生。去年,英偉達的NVL72及可擴展的NVL576系統率先布局;今年,華為CloudMatrix 384又刷新了超節點規模與性能的紀錄。與此同時,OISA、UALink、ALS、ETH-X等組織正致力于構建更開源、通用的超節點生態。超節點作為AI基礎設施GPU Scale-up互聯的必然趨勢,正吸引產業界探索多樣化的技術路線。目前,業界正密切關注其在硬件建設、互聯技術、成本優化及工程落地等方面的挑戰與需求。
昨日在2025中國AI算力大會上,奇異摩爾首席網絡架構專家葉棟為行業帶來了“AI原生時代 —共筑超節點的網絡基礎架構”的主題演講,并與產業鏈來自阿里云、中國移動研究院以及曦智科技的技術專家們共同探討了國內外超節點的現狀,超節點所面臨的挑戰以及其在國內應用落地前景展望等多個議題發表洞見。
超節點Scale-up網絡互聯的挑戰
葉棟博士指出在現階段AI大模型并行計算趨于復雜化的背景下,Scale-up網絡互聯面臨高性能、靈活拓撲、多語義支持以及缺乏通用互聯協議等四大挑戰。
挑戰一:高性能
從性能維度審視,英偉達在Scale-up互聯領域目前處于領先地位。回顧2014年至2024年這十年間,英偉達的GPU芯片及系統實現了顯著的技術躍升,從P100迭代至GB200,其底層架構亦從Volta演進到最新的Blackwell。
在此期間,GPU互聯的關鍵技術NVLink也經歷了飛速發展,帶寬從第一代的300GB/s大幅提升至第五代的1.8TB/s。盡管PCIe 6.0在x16通道下提供的雙向帶寬達到256GB/s,但相較于NVLink 5.0,其性能仍僅為后者的約七分之一。對于Scale-up互聯而言,在處理大規模模型并行計算時,對性能有著嚴苛要求,這體現在單卡芯片的計算能力、GPU間的互聯帶寬以及通信時延等關鍵指標上,英偉達的技術優勢在這些方面均得到了充分體現。
挑戰二:靈活拓撲支持
當前AI網絡的網絡拓撲形態是多樣的,盡管行業普遍采用相對通用的拓撲組網是胖樹(Spine-Leaf架構)。然而,隨著AI大模型訓練與推理對網絡通信復雜度的要求持續提升,當前的網絡環境已演變為多種拓撲類型并存的狀態。
以全網狀拓撲(Full Mesh)為例,該結構的網絡帶寬能力極高,可達到Tbps級別,同時能夠實現低至納秒(ns)級的通信時延。但其固有的局限性在于網絡可擴展的節點數量能力較差,不能進一步滿足超大規模網絡的組網。又例如光交換矩陣技術,如Google TPU集群所采用的典型組網方案,則展現出較強的網絡可擴展能力,并能夠維持極低的延遲水平,但從成本和維護角度來說,光交換的成本較高且維護難度和復雜性也較大。網絡拓撲的優化,已成為提升Scale-up網絡互聯性能的關鍵技術環節之一。
鑒于GPU間互聯對網絡性能的嚴苛要求,以及不同應用場景下對拓撲結構的多樣化需求,業界亟需一種能夠適應并靈活支持多種網絡拓撲的產品方案,以確保在不同架構下均能實現高效、可靠的GPU互聯。
挑戰三:多語義支持
消息語義與內存語義是Scale-up網絡互聯在過去一定時期階段內爭議較大的技術路線。但隨著產業界對于AI Scale-up 網絡的探索進一步深入,多語義支持逐步成為構筑GPU互聯超節點的必選項。未來隨著超節點的GPU數目進一步擴展增加(機架級-1024GPU),在張量并行和專家并行混合負載的應用場景中, 超節點不僅需要類似RDMA模式的消息語義,同時也依賴能夠實現HBD域內內存模塊(例如HBM)快速訪問的內存語義。
內存語義- 其核心原理是通過物理或虛擬地址空間的直接映射或重映射,構建出一個全局的數據視圖。多個處理單元能夠使用標準的加載(Load)和存儲(Store)指令直接訪問遠程單
元的內存空間。
舉個例子,NVLink 本身隸屬于內存語義的典范。在此條件下,行業需要一種新的產品形態來同時支持消息語義及內存語義,從而確保大規模GPU集群在復雜AI工作負載下實現極致性能與靈活性的核心保障。
挑戰四:通用互聯協議
當前,Scale-up網絡互聯的實際應用主要依賴于英偉達和華為等廠商提供的基于私有協議與封閉生態的高速互聯解決方案。然而,隨著OISA、UALink等開源生態的相繼建立與發展,行業正逐步打破私有協議一統天下的局面。
盡管未來相當長的一段時期內,Scale-up互聯領域可能仍將呈現封閉專有方案與開源生態并存的態勢,但這并未改變行業前進的方向。AI網絡的持續進步與性能優化,迫切需要產業鏈上下游各環節的緊密協作與共同努力。唯有打通開源的全鏈條,匯聚產業智慧與資源,才能最終完善并實現能覆蓋大部分應用場景且具備通用性的互聯協議標準。
Kiwi NDSA -G2G:高性能 | 標準化 |
通用化的超節點互聯解決方案
基于以上幾大挑戰,奇異摩爾的Kiwi NDSA-G2G 互聯芯粒(又名G2G IO Die)是行業內唯一一種基于Chiplet架構和開放生態,提供高性能、標準化、通用化的Scale-up互聯方案。
從性能來看,產品具有高帶寬、低延時及高并發的特性,可以實現TB級別的帶寬,對標NVlink4.0;從網絡拓撲來看,G2G芯粒支持多種拓撲包括Full Mesh、Spine-Leaf等組網;從語義支持方面,G2G芯粒將同時支持消息語義與內存語義雙引擎。由于當前Scale-up協議從簡單 P2P 接口變成復雜協議,通用協議也在進一步標準化的過程中。Kiwi NDSA-G2G 本身基于奇異摩爾獨創的HPDE架構,可滿足不同廠商不同場景的需求,在生態百花齊放的Scale-up系統中支持多協議類型及其升級,從而降低持續研發難度和開發成本。
“AI系統作為一項高度復雜的系統工程,其成功構建與高效運行,離不開產業鏈上每一個環節的緊密協作與貢獻。奇異摩爾專注于AI網絡互聯這一關鍵領域,積極致力于聯合云服務提供商、電信運營商、GPU芯片、交換機及服務器制造商等AI產業鏈的上下游伙伴,共同攜手構筑一個開源、開放且具有廣泛適用性的通用Scale-up網絡生態體系,以此驅動整個AI網絡基礎設施的加速發展與持續演進。”葉棟博士表示。
關于我們
AI網絡全棧式互聯架構產品及解決方案提供商
奇異摩爾,成立于2021年初,是一家行業領先的AI網絡全棧式互聯產品及解決方案提供商。公司依托于先進的高性能RDMA 和Chiplet技術,創新性地構建了統一互聯架構——Kiwi Fabric,專為超大規模AI計算平臺量身打造,以滿足其對高性能互聯的嚴苛需求。我們的產品線豐富而全面,涵蓋了面向不同層次互聯需求的關鍵產品,如面向北向Scale out網絡的AI原生智能網卡、面向南向Scale up網絡的GPU片間互聯芯粒、以及面向芯片內算力擴展的2.5D/3D IO Die和UCIe Die2Die IP等。這些產品共同構成了全鏈路互聯解決方案,為AI計算提供了堅實的支撐。
-
AI
+關注
關注
88文章
34909瀏覽量
277893 -
算力
+關注
關注
2文章
1182瀏覽量
15584 -
奇異摩爾
+關注
關注
0文章
58瀏覽量
3715
原文標題:主題演講回顧 | AI原生時代—攜手共筑超節點的網絡基礎架構
文章出處:【微信號:奇異摩爾,微信公眾號:奇異摩爾】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
曦智科技亮相2025中國移動云智算大會
摩爾線程亮相2025中國移動云智算大會
AI 算力報告來了!2025中國AI算力市場將達 259 億美元

評論