近日,騰訊正式開源基于專家混合(MoE)架構的大語言模型混元-A13B。同日,摩爾線程團隊憑借技術前瞻性,率先完成該模型在全功能GPU的深度適配與高效支持。這一成果充分彰顯了MUSA架構在大模型生態中的卓越兼容性與快速響應能力——MUSA架構的高易用性設計,能夠顯著減少開發者在模型適配遷移過程中的技術投入,大幅提升開發效率,為AI創新成果的快速工程化落地構建了堅實的底層技術支撐。
作為業界首個13B級別的MoE開源混合推理模型,混元-A13B(Hunyuan-A13B)總參數量達800億,激活參數為130億,不僅在效果上達到了高標準,而且在尺寸上也做到了極致的優化,成功平衡了模型性能與資源占用。
從混元官方發布的benchmark測試結果來看:Hunyuan-A13B在多個代碼和數學任務上都取得了最高分數。在MMLU、MMLU-PRO等諸多眾聚合任務上,Hunyuan-A13B達到了與Qwen3-A22B模型同等的水平,表現出優秀的綜合能力。
摩爾線程積極響應開源社區的號召,旨在賦能更多開發者基于國產全功能GPU進行AI應用創新。此前,摩爾線程在深度求索DeepSeek、通義千問QwQ-32B和Qwen3等模型的發布當日,就成功實現了Day-0支持,這一成果充分驗證了先進MUSA架構和全功能GPU的技術成熟度與可靠性。
摩爾線程始終致力于推動開源生態的發展,通過技術開放與生態共建,加速國產全功能GPU在AI計算領域的規?;瘧?,為更多用戶提供更智能、高效的解決方案。
關于摩爾線程
摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計算的基礎設施和一站式解決方案,為各行各業的數智化轉型提供強大的AI計算支持。
我們的目標是成為具備國際競爭力的GPU領軍企業,為融合人工智能和數字孿生的數智世界打造先進的加速計算平臺。我們的愿景是為美好世界加速。
-
gpu
+關注
關注
28文章
4936瀏覽量
131082 -
摩爾線程
+關注
關注
2文章
234瀏覽量
5314 -
大模型
+關注
關注
2文章
3114瀏覽量
4022
原文標題:Day-0支持|摩爾線程率先支持混元-A13B模型
文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
評論