借助 NVIDIA AI,戴爾、浪潮、Microsoft Azure 和 Supermicro 在今天發布的新 MLPerf 基準測試中創下快速訓練 AI 模型的記錄
看看誰剛剛在快速訓練 AI 模型方面創下新速度記錄:戴爾科技、浪潮、Supermicro以及在 MLPerf 基準測試中首次亮相的 Azure 均在使用 NVIDIA AI。
在今天宣布的 MLPerf 訓練 1.1 結果中,NVIDIA平臺在所有八個熱門工作負載中都創下了記錄。
圖示:在新一輪的測試中,NVIDIA AI 訓練所有模型的速度都快于替代方案
NVIDIA A100 Tensor Core GPU 提供了最出色每芯片性能, Selene 是NVIDIA內部基于模塊化NVIDIA DGX SuperPOD架構構建的AI超級計算機,借助NVIDIA InfiniBand網絡和NVIDIA軟件棧進行擴展,A100在Selene上實現了最快的AI訓練速度 。
圖示:NVIDIA A100 GPU 在所有八項 MLPerf 1.1 測試中均實現最好的每芯片訓練性能
云服務更上一層樓
根據最新結果,在訓練 AI 模型方面,Azure 的 NDm A100 v4 實例的速度遙遙領先。它運行了新一輪的每項測試,擴展到多達 2,048 個 A100 GPU。
Azure 不僅展示了出色性能,而且在美國的六個地區,現在所有人都可以租借和使用其出色性能。
AI 訓練是一項需要大量投入的大型工作。NVIDIA希望用戶借助他們選擇的服務或系統以創紀錄的速度訓練模型。
因此,NVIDIA將 NVIDIA AI 與面向云服務、主機托管服務、企業和科學計算中心的產品相結合。
服務器制造商各顯身手
在OEM 中,浪潮憑借其八路GPU服務器NF5688M6 和NF5488A5液冷服務器在單節點性能方面創下了最多記錄。戴爾和 Supermicro 在四路 A100 GPU 系統上創下了記錄。
共有 10 家 NVIDIA 合作伙伴提交了本輪測試結果,其中包含 8 家 OEM 和 2 家云服務提供商。它們占所有提交的 90% 以上。
這是 NVIDIA 生態系統在 MLPerf 訓練測試中的第五次亮相,也是到目前為止最出色的亮相。
NVIDIA的合作伙伴之所以積極參與,是因為他們知道 MLPerf 是唯一符合行業標準、經過同行評審的 AI 訓練和推理基準測試。對于評估 AI 平臺和供應商的客戶來說,這是一個有價值的工具。
為速度認證的服務器
百度 PaddlePaddle、戴爾科技、富士通、技嘉科技、慧與、浪潮、聯想和 Supermicro 提交了基于本地數據中心的結果(單節點和多節點任務)。
NVIDIA幾乎所有的 OEM 合作伙伴都在 NVIDIA 認證系統上運行了測試,NVIDIA為需要加速計算的企業客戶驗證了服務器。
提交的范圍展示了 NVIDIA 平臺的廣度和成熟度,該平臺為各種規模的企業提供最佳的解決方案。
既快速又靈活
NVIDIA AI 是唯一用于提交所有基準測試和用例的平臺參與者,這展示了其通用性和高性能。快速靈活的系統提供客戶所需的生產力,以加快他們的工作速度。
AI訓練基準測試涵蓋當今最熱門的八個 AI 工作負載和場景,例如計算機視覺、自然語言處理、推薦系統、增強學習等。
MLPerf 測試透明、客觀,因此用戶可以依靠結果做出明智的購買決策。該行業基準測試組織成立于 2018 年 5 月,得到阿里巴巴、ARM、Google、Intel 和 NVIDIA 等數十家行業領先公司的支持。
三年內加速 20 倍
回顧過去,數據顯示,僅在過去 18 個月,NVIDIA A100 GPU 的性能就提升了 5 倍以上。這要歸功于軟件的持續創新,這也是NVIDIA目前工作的重心。
自從三年前 MLPerf 測試首次亮相,NVIDIA 的性能提高了 20 倍以上。這種大規模加速源于NVIDIA在全棧 GPU、網絡、系統和軟件方面取得的進步。
圖示:NVIDIA AI 在三年內實現了 20 倍以上的改進
持續改進軟件
NVIDIA的新進展來自多項軟件改進。
例如,借助一類新的內存復制操作,NVIDIA在針對醫學成像的 3D-UNet 基準測試中實現 2.5 倍的操作加速。
得益于微調 GPU 以進行并行處理的方式,NVIDIA在針對物體檢測的 Mask R-CNN 測試中實現 10% 的速度提升,而在針對推薦系統的測試中實現了 27% 的提升。NVIDIA只是重疊了獨立操作,這種技術尤其適合跨多個 GPU 運行的作業。
NVIDIA擴展了 CUDA 圖形的使用范圍,盡可能減少與主機 CPU 的通信。得益于此,NVIDIA在針對圖像分類的 ResNet-50 基準測試中實現了 6% 的性能提升。
NVIDIA在NCCL 上實施了兩種新技術。NCCL 是NVIDIA的庫,用于優化 GPU 之間的通信。對于 BERT 等大型語言模型,這樣可以將結果加速高達 5%。
利用NVIDIA的工作結果
NVIDIA使用的所有軟件均在 MLPerf 倉庫提供,因此每個人都可以獲得NVIDIA的出色結果。NVIDIA不斷將這些優化整合到 NGC(NVIDIA的 GPU 應用程序軟件中心)上的容器。
它是全棧平臺的一部分,已在新的行業基準測試中得到驗證,可從各種合作伙伴處獲得,能夠處理當今真正的 AI 作業。
原文標題:MLPerf | 云服務、OEM 借助 NVIDIA AI 讓 AI 訓練更上層樓
文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。
-
NVIDIA
+關注
關注
14文章
5076瀏覽量
103734 -
服務器
+關注
關注
12文章
9308瀏覽量
86073 -
數據中心
+關注
關注
16文章
4860瀏覽量
72386
原文標題:MLPerf | 云服務、OEM 借助 NVIDIA AI 讓 AI 訓練更上層樓
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
利用NVIDIA DPF引領DPU加速云計算的未來
![利用<b class='flag-5'>NVIDIA</b> DPF引領DPU<b class='flag-5'>加速</b>云<b class='flag-5'>計算</b>的未來](https://file1.elecfans.com/web3/M00/07/0B/wKgZPGeS7aKAGUIAAAAbxIpaJKw881.png)
GPU加速云服務器怎么用的
云服務器 Flexus X 實例 MySQL 應用加速測試
![云<b class='flag-5'>服務器</b> Flexus X 實例 MySQL 應用<b class='flag-5'>加速</b><b class='flag-5'>測試</b>](https://file1.elecfans.com//web3/M00/03/96/wKgZO2dqNmiAUhJwAAPC-ja5IoM812.png)
評論