全球領先的計算機制造商戴爾科技、慧與、聯(lián)想、超微以及云服務提供商 AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure 正在打造基于 H100 的產品,并將于下月開始供貨
NVIDIA 于今日宣布 NVIDIA H100 Tensor Core GPU 全面投產,NVIDIA 全球技術合作伙伴計劃于 10 月推出首批基于開創(chuàng)性 NVIDIA Hopper 架構的產品和服務。
H100 于 2022 年 4 月發(fā)布,由 800 億個晶體管組成,并采用了眾多開創(chuàng)性的技術,包括強大的全新 Transformer 引擎和 NVIDIA NVLink 互連技術,以加速最大規(guī)模的 AI 模型,如高級推薦系統(tǒng)和大型語言模型,并推動對話式 AI 和藥物發(fā)現(xiàn)等領域的創(chuàng)新。
NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“Hopper 是 AI 工廠的全新引擎。它能夠處理和挖掘海量數(shù)據(jù),訓練具有數(shù)萬億參數(shù)的模型,這些模型將推動基于語言的 AI、機器人、醫(yī)療和生命科學領域的進步。Hopper 的 Transformer 引擎將性能提升了一個數(shù)量級,使大規(guī)模 AI 和 HPC 能夠為企業(yè)和研究人員所用。”
除了 Hopper 的架構和 Transformer 引擎之外,第二代多實例 GPU、機密計算、第四代 NVIDIA NVLink 和 DPX 指令等若干關鍵性創(chuàng)新也讓 H100 GPU 如虎添翼,實現(xiàn)了 NVIDIA 加速計算數(shù)據(jù)中心平臺的又一次飛躍。
用于主流服務器的 H100 現(xiàn)包含為期五年的 NVIDIA AI Enterprise 軟件套件許可。這將優(yōu)化 AI 工作流的開發(fā)和部署,確保用戶能夠獲得構建 AI 聊天機器人、推薦引擎、視覺 AI 等所需的 AI 框架和工具。
Hopper 的全球推廣
H100 使企業(yè)能夠削減 AI 的部署成本,相較于上一代,在提供相同 AI 性能的情況下,可將能效提高 3.5 倍,總體擁有成本減少至 1/3,所使用的服務器節(jié)點數(shù)也減少至 1/5。
對于有意立即嘗試這項新技術的客戶,NVIDIA 已宣布戴爾 PowerEdge 服務器上的 H100 現(xiàn)可在 NVIDIA LaunchPad 上使用。NVIDIA LaunchPad 為企業(yè)提供免費的動手實操實驗室,讓企業(yè)能夠接觸到最新的硬件和 NVIDIA AI 軟件。
NVIDIA DGX H100 系統(tǒng)現(xiàn)在也已開始接受客戶預定。該系統(tǒng)包含 8 個 H100 GPU,F(xiàn)P8 精度的峰值性能達到 32 PFlops。每個 DGX 系統(tǒng)都包含 NVIDIA Base Command 和 NVIDIA AI Enterprise 軟件,可實現(xiàn)從單一節(jié)點到 NVIDIA DGX SuperPOD 的集群部署,為大型語言模型和其他大規(guī)模工作負載的高級 AI 開發(fā)工作提供支持。
全球領先的計算機制造商所提供的搭載 H100 的系統(tǒng)預計將在未來幾周內發(fā)貨,到今年年底將有超過 50 款服務器型號面市,2023 年上半年還將有數(shù)十款型號面市。已在構建系統(tǒng)的合作伙伴包括源訊(Atos)、思科、戴爾科技、富士通、技嘉科技、慧與、聯(lián)想和超微。
此外,數(shù)家全球領先的高等教育和研究機構的新一代超級計算機也將采用 H100。其中包括巴塞羅那超級計算中心、洛斯阿拉莫斯國家實驗室、瑞士國家超級計算中心(CSCS)、德州高級計算中心和筑波大學。
H100 走向云端
AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure 將從明年開始率先在云端部署基于 H100 的實例。
Microsoft Azure AI 基礎設施總經理 Nidhi Chappell 表示:“我們期待著在 Microsoft Azure的最新 H100 GPU 上實現(xiàn)下一代 AI 模型。借助 Hopper 架構的進步,加之我們在 Azure AI 超級計算方面的投資,我們將能夠助力加速全球 AI 的發(fā)展。”
Oracle Cloud Infrastructure 產品管理副總裁 Karan Batta 表示:“我們通過為客戶提供 NVIDIA 最新的 H100 GPU,幫助他們加速最為復雜的機器學習和 HPC 工作負載。另外,憑借 NVIDIA 的新一代 H100 GPU,我們能夠為內部要求嚴苛的工作負載提供支持,并助力我們共同的客戶在醫(yī)療、自動駕駛汽車、機器人和物聯(lián)網領域取得突破。”
NVIDIA 的軟件支持
H100 先進的 Transformer 引擎技術可助力企業(yè)快速開發(fā)精度更高的大型語言模型。隨著這些模型的規(guī)模不斷擴大,其復雜性也在不斷提升,有些模型的訓練時間甚至長達數(shù)月。
為解決這一問題,一些全球領先的大型語言模型和深度學習框架正在 H100 上進行優(yōu)化,包括 NVIDIA NeMo Megatron、Microsoft DeepSpeed、Google JAX、PyTorch、TensorFlow 和 XLA。這些框架與 Hopper 架構相結合,能夠顯著提升 AI 性能,將大型語言模型的訓練時間縮短到幾天乃至幾小時。
-
NVIDIA
+關注
關注
14文章
5182瀏覽量
105364 -
AI
+關注
關注
87文章
33415瀏覽量
273945 -
模型
+關注
關注
1文章
3458瀏覽量
49761 -
深度學習
+關注
關注
73文章
5543瀏覽量
122269
原文標題:GTC22 | NVIDIA Hopper 全面投產
文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
NVIDIA Halos自動駕駛汽車安全系統(tǒng)發(fā)布
NVIDIA Blackwell數(shù)據(jù)手冊與NVIDIA Blackwell架構技術解析
NVIDIA Blackwell RTX PRO 提供工作站和服務器兩種規(guī)格,助力設計師、開發(fā)者、數(shù)據(jù)科學家和創(chuàng)作人員構建代理式

NVIDIA技術引領媒體行業(yè)AI革新
NVIDIA推出多個生成式AI模型和藍圖
NVIDIA加速AI在日本各行各業(yè)的應用
NVIDIA AI芯片Blackwell推遲發(fā)布引熱議,公司強調Hopper需求強勁
NVIDIA攜手Meta推出AI服務,為企業(yè)提供生成式AI服務
英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務
HPE 攜手 NVIDIA 推出 NVIDIA AI Computing by HPE,加速生成式 AI 變革
NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 變革
NVIDIA宣布全面推出 NVIDIA ACE 生成式 AI 微服務
英偉達推出AI模型推理服務NVIDIA NIM
NVIDIA AI Enterprise榮獲金獎

評論