在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

讓大模型訓練更高效,奇異摩爾用互聯創新方案定義下一代AI計算

Felix分析 ? 來源:電子發燒友 ? 作者:吳子鵬 ? 2025-02-18 09:19 ? 次閱讀

電子發燒友網報道(文/吳子鵬)近一段時間以來,DeepSeek現象級爆火引發產業對大規模數據中心建設的思考和爭議。在訓練端,DeepSeek以開源模型通過算法優化(如稀疏計算、動態架構)降低了訓練成本,使得企業能夠以低成本實現高性能AI大模型的訓練;在推理端,DeepSeek加速了AI應用從訓練向推理階段的遷移。因此,有觀點稱,DeepSeek之后算力需求將放緩。不過,更多的國內外機構和研報認為,DeepSeek降低了AI應用的門檻,將加速AI大模型應用落地,吸引更多的企業進入這個賽道,算力需求仍將繼續增長,不過需求重心從“單卡峰值性能”轉向“集群能效優化”。比如,SemiAnalysis預測,全球數據中心容量將從2023年的49GW增長至2026年的96GW,其中新建智算中心容量將占增量的85%。近日,全球四大巨頭(Meta、亞馬遜、微軟及)公布的2025 AI基礎設施支出總計超3000億美元,相比2024年增長30%。

6c96ba4d38a84d9c978060d22f882d77~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=yZgUXHDjzeN9KBAdjqZuPSzrOxM%3D

(數據來源:科技巨頭公開披露報告)

奇異摩爾創始人兼CEO田陌晨表示:“‘Scaling Law’依然在延續。從Transformer的獨領風騷到MoE專家模型的創新突圍,AI領域正邁向萬億、甚至十萬億參數規模的AI大模型訓練時代。DeepSeek-R1推理模型的問世離不開基礎模型Deepseek-V3的龐大訓練積累。在這一背景下,強大的算力集群依然是支撐AI的基石。而如何提高集群的線性加速比,一直是產業的核心話題。與此同時,AI算力網絡的重要性日益凸顯,它讓數據在集群中各個層面、各個維度上都能夠快速傳輸,實現各節點資源的高效調動。”

29c170f49d3c44fab54527cd154b4160~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=xba8BhHSj%2F48bYIdlDaPcMg%2F3PI%3D

(圖:奇異摩爾創始人兼CEO田陌晨)

為此,作為行業領先的AI網絡全棧式互聯產品及解決方案提供商,奇異摩爾給出了一套極具競爭力的解決方案——基于高性能RDMA和Chiplet技術,利用“Scale Out”“Scale Up”“Scale Inside”三大理念,提升算力基礎設施在網間、片間和片內的傳輸效率,為智能算力發展賦能。

Scale Out——打破系統傳輸瓶頸

DeepSeek的成功證明了開源模型相較于閉源模型具有一定的優越性,隨著模型的智能化趨勢演進,模型體量的增加仍然會是行業發展的主要趨勢之一。為了完成千億、萬億參數規模AI大模型的訓練任務,通用的做法一般會采用Tensor并行(TP)、Pipeline并行(PP)、和Data并行(DP)策略來拆分訓練任務。隨著MoE(Mixture of Experts,混合專家)模型的出現,除了涉及上述并行策略外,還引入了專家并行(EP)。其中,EP和TP通信數據開銷較大,主要通過Scale Up互聯方式應對。DP和PP并行計算的通信開銷相對較小,主要通過Scale Out互聯方式應對。

因而,如下圖所示,當下主流的萬卡集群里存在兩種互聯域——GPU南向Scale Up互聯域(Scale Up Domain,SUD)和GPU北向Scale Out互聯域(Scale Out Domain,SOD)。田陌晨強調:“以Scale Up和Scale Out雙擎驅動方式構建大規模、高效的智算集群,是應對算力需求爆發的有效手段。”

263c2adff30c476b90dd8ad3a1bdc009~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=YuLsyb9H5%2FQ5R5mNcMS7KkcRD2s%3D

智算集群里的Scale Up和Scale Out

在這個集群網絡中,Scale Out專注于橫向/水平的擴展,強調通過增加更多計算節點實現集群規模的擴展。當前,遠程直接內存訪問(RDMA)已經成為構建Scale Out網絡的主流選擇。作為一種host-offload/host-bypass技術,RDMA提供了從一臺計算機內存到另一臺計算機內存的直接訪問,具有低延遲、高帶寬的特性,在大規模集群中扮演著重要的角色。如下圖所示,RDMA主要包含InfiniBand(IB)、基于以太網的RoCE和基于TCP/IP的iWARP。其中,IB和以太網RDMA是算力集群里應用最廣泛的技術。

d15a5d1be6934551ad5bd22f0dc36752~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=wOOH%2BrvfX2m%2BgMF9VacIsWGatKg%3D

RDMA應用和實現方式(來源:知乎 @Savir)

IB是專門為RDMA開發的一種網絡通信技術,具有高帶寬、低延遲等優勢,且IB默認是無損網絡,無需特殊設置。得益于這些優勢,過往IB在Scale Out網絡構建中占據主導地位。然而,IB需要專門支持該技術的網卡和交換機,價格是傳統網絡的5-10倍,成本相對較高,且IB交換機交期較長。同時,IB兼容性差,難以和大多數以太網設備兼容,例如網卡、線纜、交換機和路由器等,無法成為行業統一的發展路線。

隨著集群規模增大,以太網RDMA獲得了主流廠商的廣泛支持。以太網RDMA同樣具有高速率、高帶寬、CPU負載低等優勢,在低時延和無損網絡特性方面也已經和IB性能持平。同時,以太網RDMA具有更好的開放性、兼容性和統一性,更利于做大規模的組網集群。從一些行業代表性案例來看,如字節跳動的萬卡集群,Meta公司的數萬卡集群,以及特斯拉希望打造的十萬卡集群,都一致選擇了以太網方案。此外,因為硬件通用和運維簡單,以太網RDMA方案更具性價比。

雖然以太網RDMA已經被公認是未來Scale Out的大趨勢,不過田陌晨指出:“如果是基于RoCEv2構建方案仍存在一些問題,比如亂序需要重傳,負載分擔不完美,存在Go-back-N問題,以及DCQCN 部署調優復雜等。在萬卡和十萬卡集群中,業界需要增強型以太網RDMA以應對上述這些挑戰,超以太網傳輸(Ultra Ethernet Transport,UET)便是下一代AI計算和HPC里的關鍵技術。”

為了能夠進一步發揮以太網和RDMA技術的潛能,博通、思科、Arista、微軟、Meta等公司牽頭成立了超以太網聯盟(UEC)。如下圖所示,在UEC規范1.0的預覽版本中,UEC從軟件API、運輸層、鏈路層、網絡安全和擁塞控制等方面對Transport Layer傳輸層做了全面的優化,關鍵功能包括FEC(前向糾錯)統計、鏈路層重傳(LLR)、多路徑報文噴發、新一代擁塞控制、靈活排序、端到端遙測、交換機卸載等。根據AMD方面的數據,UEC就緒(UEC-ready)系統能夠提供比傳統RoCEv2系統高出5-6倍的性能。

477ef8656ef148938265a8de798618a5~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=Ey6jME9p8r24x7HpRQWnM8IfnvQ%3D

UEC規范1.0示意圖(來源:UEC)

田陌晨表示:“UEC是專門為AI網絡Scale Out互聯成立的國際聯盟,致力于通過Modernized RDMA優化AI和HPC工作負載。借助UEC的關鍵性能,Scale Out網絡能夠充分利用系統內所有可用的傳輸路徑,并最小化網絡擁塞。當前基于RDMA RoCE的解決方案未來也可以通過踐行UEC聯盟的標準升級各自的以太網產品方案,打造更大規模的無損集群通信。”

奇異摩爾打造的Kiwi NDSA-SNIC AI原生智能網卡便是一款UEC就緒方案,性能比肩全球標桿ASIC產品。Kiwi NDSA SmartNIC提供領先行業的高性能,支持高達800Gbps的傳輸帶寬,提供低至μs級的數據傳輸延時,滿足當前數據中心行業400Gbps-800Gbps升級需求,可實現Tb級別萬卡集群間無損數據傳輸。

848133b43caf4d54ab9c65cd7f227a3d~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=PfgazJ9tk4e68ythKVeicelJjRs%3D

奇異摩爾Kiwi NDSA-SNIC AI原生智能網卡方案(來源:奇異摩爾)

借助UEC就緒RDMA中的路徑感知擁塞控制、有序消息傳遞、選擇性確認重傳、自適應路由及數據包噴灑等關鍵功能,Kiwi NDSA-SNIC能夠充分保障AI網絡間數據的穩定傳輸。比如,Kiwi NDSA-SNIC提供的自適應路由及數據包噴灑功能可以充分發揮高速網絡的性能,支持高級分組噴灑,提供多路徑數據包傳送和細粒度負載平衡,有效應對傳輸擁塞。相同用例還有:通過有序消息傳遞(In-Order Message Delivery)來降低系統延遲,通過路徑感知擁塞控制(Path Aware Congestion Control)來優化多個路徑的數據包流,等等。

此外,Kiwi NDSA-SNIC還擁有很多其他的關鍵特性。比如,Kiwi NDSA-SNIC具有出色的高并發特性,支持多達數百萬個隊列對,可擴展內存空間達到GB;Kiwi NDSA-SNIC具有可編程性,可應對各種網絡任務加速,為Scale Out網絡帶來持續創新的功能,并保證與未來的行業標準無縫兼容。

綜合而言,奇異摩爾的Kiwi NDSA-SNIC AI原生智能網卡是一個擁有高性能、可編程的Scale Out網絡引擎,將開啟AI網絡 Scale Out發展的新篇章。田陌晨稱:“當前,奇異摩爾已經成為UEC聯盟成員。隨著以太網逐漸過渡到超以太網,奇異摩爾愿攜手聯盟伙伴共同探討并踐行Scale Out相關標準的制定和完善,并第一時間為行業帶來性能領先的UEC方案,推動AI網絡 Scale Out技術向前發展。”

b15b3b9a0f5648d3a62ff8046fc63175~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=9EU7g0iUH%2FQKYBjEafOX3UKOU14%3D

奇異摩爾UEC會員(來源:UEC官網)

Scale Up——讓計算芯片配合更高效

和橫向/水平擴展的Scale Out不同,Scale Up是垂直/向上擴展,目標是打造機內高帶寬互聯的超節點。上述提到,TP張量并行以及EP專家并行需要更高的帶寬和更低的時延來進行全局同步。通過Scale Up的方式,將更多的算力芯片GPU集中到一個節點上,是非常有效的應對方式。如今的Scale Up實際上就是一個以超高帶寬為核心的機內GPU-GPU組網方式,還有一個名稱是超帶寬域(HBD,High Bandwidth Domain)。

英偉達GB200 NVL72的推出引領著國內外AI網絡生態對HBD技術的廣泛探討。英偉達GB200NVL72服務器是一個典型的超大HBD,實現了36組GB200(36個Grace CPU,72個B200 GPU)之間的超高帶寬互聯。在這個HBD系統里,第五代 NVLink是最關鍵的,它能夠提供GPU-GPU之間雙向1.8TB的傳輸速率,使得這個HBD系統可以作為一個大型GPU去使用,訓練效率相較于H100系統提升了4倍,能效提升了25倍。

4623031122df473aaa201f438b9490d3~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=rNVB%2Bl5iEhgvRSiotHKWCLrEBzI%3D

NVL72互聯架構(來源:英偉達)

和IB一樣,NVLink也是由英偉達主導,雖然性能強勁但是生態封閉,只服務于英偉達的高端GPU。由于沒有NVLink和NVSwitch這樣的技術,此前其他廠商主要采用full mesh或者cube-mesh結構,以8卡互聯為主,而16-32卡互聯是下一代方案。

DeepSeek事件引發了業界對于上述NVLink和HBD需求的不同預期。但中長期發展來看,相比軟件迭代速度以小時來計算,硬件的迭代則是以年為計算的循序漸進過程,不會一蹴而就。據SemiAnalysis預計大型模型的標準只會隨著未來的模型發布而繼續升高,但從經濟效用上來說,其所對應的硬件必須堅持使用并有效 4-6 年,而不僅僅是直到下一個模型發布。

對此,田陌晨認為:“未來MoE模型的進階路線在一定程度上存在不確定性,創新隨時可能發生。但國產AI網絡的生態閉環勢在必行。英偉達NVLink和Cuda的護城河仍然存在,首先要解決Scale Up互聯國產替代方案有沒有的問題,再來看做到哪種程度。未來隨著國產大模型、芯片架構等軟硬件生態的協同發展,有望逐步實現國產算力閉環。”

如今,科技巨頭正聯合生態上下游在GPU-GPU高效互聯方面主要分為兩個流派:內存語義和消息語義。內存語義Load/Store/Atomic是GPU內部總線傳輸的原生語義,英偉達NVLink便是基于內存語義,對標NVLink的UAlink等也是基于這種語義;消息語義則是采用類似Scale Out的DMA語義Send/Read/Write,將數據進行打包傳輸,亞馬遜和Tenstorrent等公司便是基于消息語義打造Scale Up互聯方案。

內存語義和消息語義各有千秋。內存語義是GPU內部傳輸的原生語義,處理器負擔更小,在數據包體量小時效率更高;消息語義采用數據打包的方式,隨著數據包體量變大,性能逐漸追上了內存語義,隨著AI大模型體量增大,這一點也非常重要。

不過,田陌晨指出:“無論是內存語義還是消息語義,對于廠商而言,都面臨一些共性的挑戰,比如傳統GPU直出將IO集成在GPU內部,性能提升受到了光罩尺寸的嚴格限制,留給IO的空間非常有限,IO密度提升困難;Scale Up網絡和數據傳輸協議復雜,計算芯片廠商大都缺乏相關經驗,尤其是開發交換機芯片的經驗;除NVLink之外,其他Scale Up協議并不成熟且不統一,協議迭代對計算芯片迭代造成了巨大的困擾。”

19c2ad540362416fa1830704d5ef84c9~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=SlH%2Bfou8K9TL1ElQmk5jEpcf7JQ%3D

GPU IO集成在GPU內部(來源:奇異摩爾)

為了能夠更好地應對上述挑戰,產業界提出了一種創新的GPU直出方式——計算和IO分離。奇異摩爾NDSA-G2G互聯方案便是這條技術路徑里非常有競爭力的一款方案。

借助NDSA-G2G可以實現計算芯粒和IO芯粒解耦,通過通用芯粒互聯技術UCIe進行互聯。這樣做的好處是,只需要犧牲一點點的芯片面積(小百分之幾),就可以將寶貴的中介層資源近乎100%用于計算,并按照客戶的需求靈活地增加IO芯粒的數量,且計算芯粒和IO芯粒可以基于不同的工藝技術。再加上IO芯粒的復用特性,能夠顯著提升高性能計算芯片的性能和性價比。

NDSA-G2G的第二大優勢是提升IO密度和性能,具有高帶寬、低延時和高并發的特性。在高帶寬方面,基于NDSA-G2G芯粒,可以實現1TB級別的網絡層吞吐量,TB級的GPU側吞吐量;在低延時方面,NDSA-G2G芯粒提供百ns級的數據傳輸延時和ns級D2D數據傳輸延時;在高并發方面,該產品支持多達數百萬個隊列對,可擴展系統中的內存資源。也就是說,借助奇異摩爾NDSA-G2G芯粒能夠賦能國產AI芯片實現自主突圍,構建性能媲美英偉達NVSwitch+NVLink的Scale Up方案。

dacce002ca3647ca8b9122ea5000ffda~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=6G%2FZScwG1gcLpiro%2FWkcM05s%2BXg%3D

Kiwi NDSA-G2G 產品示意圖(來源:奇異摩爾)

NDSA-G2G的第三大優勢是具有出色的靈活性。如上所述,目前Scale Up技術路線并不統一,且智算中心廠商在協議方面大都采用自有協議,或者自己主導的聯盟協議。這就導致高性能計算芯片需要在設計時考慮未來2~3年,甚至是3~5年的協議發展,具有非常大的挑戰。NDSA-G2G以計算芯粒和IO芯粒分離的方式讓IO芯粒可以靈活升級,同時NASG-G2G基于具有可編程性,可以支持目前市面上各種IO協議。這種靈活性讓高性能計算芯片廠商可以從容應對當前Scale Up技術路線不統一且協議混亂的挑戰。

同時,田陌晨也呼吁:“希望科技行業在Scale Up方向上能夠擁抱一種開放而統一的物理接口,實現更好的協同發展,這也是打造國產自主可控算力底座的關鍵一步。”

Scale Inside——全面提升計算芯片傳輸效率

在Scale Out和Scale Up 高速發展的過程中,作為算力基礎單元,Scale Inside的進度也沒有落下,并致力于通過先進封裝技術彌補摩爾定律速度放緩的影響。在整個智算系統里,更高算力的計算芯片能夠進一步提升Scale Up和Scale Out的性能水平,使得AI大模型的訓練更加高效。

當前,單顆高性能計算芯片的成本已經非常恐怖,隨著制程工藝進一步精進,這一數字還將繼續飆升,因而Chiplet技術得到了廣泛的重視。Chiplet技術允許通過混合封裝的方式打造高性能計算芯片,也就是說計算單元和IO、存儲等其他功能單元可以選擇不同的工藝實現,具有極高的靈活性,允許廠商根據自己的需求進行定制芯粒,不僅能夠顯著降低芯片設計和制造的成本,良率也能夠得到很大的改善。

在Scale Inside方向上,奇異摩爾能夠提供豐富的Chiplet技術方案,包括Kiwi Link UCIe Die2Die接口IP、Central IO Die,3D Base Die系列等。其中,Kiwi Link全系列支持UCIe標準,具有業界領先的高帶寬、低功耗、低延時特性,并支持多種封裝類型。Kiwi Link支持高達16~32 GT/s的傳輸速率和低至ns級的傳輸延遲,支持Multi-Protocol多協議,包括PCIe、CXL和Streaming。

6a80c69986d44a1b8c00bf9628454b25~tplv-tt-shrink:640:0.image?lk3s=06827d14&traceid=2025021809203605B197149BAFA09BCBEF&x-expires=2147483647&x-signature=oy%2FEsd4pzekthZPq94pNy28kGDE%3D

Kiwi Fabric互聯架構(來源:奇異摩爾)

綜合而言,奇異摩爾的解決方案能夠從“Scale Out”“Scale Up”“Scale Inside”三大角度,推動AI大模型訓練效率的提升。在Scale Out方面,奇異摩爾已經是超以太網聯盟UEC的成員,能夠在第一時間響應UEC規范1.0以及后續規范;在Scale Up方面,奇異摩爾NDSA-G2G芯粒不僅能夠幫助科技公司打造媲美英偉達NVSwitch+NVLink性能的Scale Up方案,適配各種技術路線和協議,也正在引領計算芯片的設計革新;在Scale Inside方案,奇異摩爾的Kiwi Link UCIe Die2Die接口IP、Central IO Die、3D Base Die系列等方案能夠幫助廠商打造具有高效傳輸能力的高性能計算芯片。

這些方案很好地踐行了奇異摩爾公司的使命——以互聯為中心,依托Chiplet和RDMA技術,構筑AI高性能計算的基石。“對于國產AI大模型和國產AI芯片產業而言,奇異摩爾的方案是新質生產力的代表,有著更大的潛能值得去挖掘。為實現國產AI芯片產業的‘中國夢’,奇異摩爾不僅提供支持最前沿協議的IO芯粒,以實現高速率、高帶寬、低時延的傳輸表現,還在Chiplet路線上獨辟蹊徑,用創新的芯片架構助力打造更高性能的AI芯片。奇異摩爾愿與國內公司攜手,為國產AI芯片產業發展添磚加瓦,共同勾畫國產AI發展的廣闊藍圖。”田陌晨最后說。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關推薦

    百度李彥宏談訓練下一代模型

    “我們仍需對芯片、數據中心和云基礎設施持續投入,以打造更好、更智能的下一代模型。”
    的頭像 發表于 02-12 10:38 ?175次閱讀

    奇異摩爾分享計算芯片Scale Up片間互聯新途徑

    開放數據中心委員會ODCC冬季全員會議于12月4日-6日在春暖花開的昆明舉行。奇異摩爾首席系統架構師朱琛作為網絡工作組ETH-X超節點項目的核心成員分享了AI Networking Scale Up卡間
    的頭像 發表于 12-09 09:36 ?640次閱讀
    <b class='flag-5'>奇異</b><b class='flag-5'>摩爾</b>分享<b class='flag-5'>計算</b>芯片Scale Up片間<b class='flag-5'>互聯</b>新途徑

    中興通訊展示創新方案與實踐成果

    2024 MWC 上海在上海新國際博覽中心正式召開,中興通訊以“未來進行時”為主題全面呈現在連接、算力、產業數字化、終端等方面的創新方案與實踐成果。
    的頭像 發表于 10-15 10:15 ?634次閱讀

    國家大力部署 IPv6,打造下一代互聯網新生態

    。大力發展基于IPv6的下一代互聯網,有助于提升我國網絡信息技術自主創新能力和產業高端發展水平。IPv6能夠高效支撐移動互聯網、物聯網、工業
    的頭像 發表于 10-09 13:37 ?768次閱讀
    國家大力部署 IPv6,打造<b class='flag-5'>下一代</b><b class='flag-5'>互聯</b>網新生態

    摩爾線程與羽人科技完成大語言模型訓練測試

    近日,摩爾線程與羽人科技攜手宣布,雙方已成功實現夸娥(KUAE)千卡智算集群與羽人系列模型解決方案訓練兼容適配。在本次測試中,羽人科技通過摩爾
    的頭像 發表于 08-27 16:19 ?612次閱讀

    IaaS+on+DPU(IoD)+下一代高性能算力底座技術白皮書

    大規模生產環境落地應用的條件。某種程度上,IoD 技術已成為下一代高性能算力底座的核心技術與最佳實踐。 白皮書下載:*附件:IaaS+on+DPU(IoD)+下一代高性能算力底座+技術白皮書(1).pdf
    發表于 07-24 15:32

    奇異摩爾上海總部進駐上海浦東科海大樓

    。 三年風雨兼程? 三年春華秋實 奇異摩爾于2021年在上海創立,依托于Chiplet和RDMA高性能網絡互聯技術,旨在打造了整套全棧式AI
    的頭像 發表于 07-01 18:57 ?2834次閱讀
    <b class='flag-5'>奇異</b><b class='flag-5'>摩爾</b>上海總部進駐上海浦東科海大樓

    MWCS 2024 | 廣和通榮獲邊緣AI計算最佳創新方案

    2024世界移動通信大會·上海(MWCS 2024)期間,廣和通端側AI解決方案憑借卓越特性與極具潛力的商業價值斬獲2024信息通信業“新質推薦”——邊緣AI計算最佳
    的頭像 發表于 06-28 18:22 ?425次閱讀
    MWCS 2024 | 廣和通榮獲邊緣<b class='flag-5'>AI</b><b class='flag-5'>計算</b>最佳<b class='flag-5'>創新方案</b>

    MWCS 2024 廣和通榮獲邊緣AI計算最佳創新方案

    2024世界移動通信大會·上海(MWCS 2024)期間,廣和通端側AI解決方案憑借卓越特性與極具潛力的商業價值斬獲2024信息通信業“新質推薦”——邊緣AI計算最佳
    的頭像 發表于 06-28 18:21 ?948次閱讀
    MWCS 2024  廣和通榮獲邊緣<b class='flag-5'>AI</b><b class='flag-5'>計算</b>最佳<b class='flag-5'>創新方案</b>

    摩爾線程與師者AI攜手完成70億參數教育AI模型訓練測試

    近日,國內知名的GPU制造商摩爾線程與全學科教育AI模型“師者AI”聯合宣布,雙方已成功完成了項重要的大
    的頭像 發表于 06-14 16:31 ?674次閱讀

    SK海力士創新下一代HBM,融入計算與通信功能

    SK海力士正引領半導體行業進入新時代,開發了種融合計算與通信功能的下一代HBM(高帶寬內存)。這創新戰略旨在鞏固其在HBM市場中的領先地
    的頭像 發表于 05-29 14:11 ?724次閱讀

    賽輪思與NVIDIA合作,利用生成式AI打造下一代車內體驗

    AI 驅動的移動出行創新企業與 NVIDIA 合作,打造下一代車內體驗。
    的頭像 發表于 05-23 10:12 ?1323次閱讀

    奇異摩爾攜手SEMiBAY Talk 邀您暢談互聯計算

    副總裁祝俊東將進行《互聯定義計算》主題演講。 直播主題 隨著高性能計算體系全方位從 Scale up 向 Scale out 轉變,超節點和集群網絡的規模不斷擴大。未來的
    的頭像 發表于 05-20 18:31 ?1077次閱讀
    <b class='flag-5'>奇異</b><b class='flag-5'>摩爾</b>攜手SEMiBAY Talk 邀您暢談<b class='flag-5'>互聯</b>與<b class='flag-5'>計算</b>

    存內計算WTM2101編譯工具鏈 資料

    存內計算是突破物理極限的下一代算力技術- AIGC等人工智能新興產業的快速發展離不開算力,算力的基礎是人工智能芯片。 當前CPU/GPU在執行計算密集型任務時需要將海量參數(ωij)從內存中讀取
    發表于 05-16 16:33

    NVIDIA的專用AI平臺如何推動下一代醫療健康行業的發展

    醫療科技創新企業在 GTC 上介紹了 NVIDIA 的專用 AI 平臺如何推動下一代醫療健康行業的發展。
    的頭像 發表于 04-09 10:10 ?1375次閱讀
    主站蜘蛛池模板: 国产秦先生大战白丝97在线 | 全免费一级午夜毛片 | 伊人精品久久久大香线蕉99 | 天天爽天天狼久久久综合 | 亚洲一区二区三 | 国产免费久久精品99久久 | 朋友夫妇和交换性bd高清 | 人人做人人澡人人人爽 | 国产精品任我爽爆在线播放6080 | 四虎永久在线观看视频精品 | 天堂资源最新版在线www | aaa成人| 欧美xxxxx性视频 | 成 黄 色 激 情视频网站 | 最近最新中文字幕在线第一页 | www在线播放 | 国模沟沟一区二区三区 | 热久久影院 | 天天插天天干天天操 | 精品新一区二区三区四区 | 欧美成人伊人十综合色 | 九色福利| 国外免费精品视频在线观看 | 五月天婷婷在线观看 | 欧美综合在线视频 | a久久| 国产h在线观看 | 亚洲精品91大神在线观看 | 人阁色第四影院在线观看 | 中国一级特黄特色真人毛片 | 久久国产精品自在自线 | 四虎影院在线免费 | 午夜寂寞在线一级观看免费 | 日本黄色片视频 | 三级在线看 | 在线观看播放视频www | 亚洲迅雷| 日本高清视频色wwwwww色 | 日本在线网址 | 91av视频 | 亚洲国产网|