在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA最新GPU帶動,液冷服務器市占有望從1%提升到15%

花茶晶晶 ? 來源:電子發燒友網 ? 作者:黃晶晶 ? 2024-06-14 09:11 ? 次閱讀

電子發燒友網報道(文/黃晶晶)數據中心向來是耗電大戶,過去出于更經濟的考慮氣冷型服務器占據主流,如今隨著大語言模型的快速發展以及Meta的Llama-3和Mistral的Mixtral 8x22B等開源模型不斷推出,采用液冷技術的總擁有成本效益更加突出。未來液冷服務器的比重將顯著上升。

液冷產品簡化AI基礎設施


最近,Supermicro推出可立即部署式液冷型AI數據中心,此數據中心專為云原生解決方案而設計,通過SuperCluster加速各界企業對生成式AI的運用,并針對NVIDIA AI Enterprise軟件平臺優化,適用于生成式AI的開發與部署。

Supermicro的SuperCluster解決方案針對LLM訓練、深度學習以及大規模與大批量推理優化Supermicro的SuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務和NVIDIA NeMo平臺,能實現端對端生成式AI客制,并針對NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網速的新型NVIDIA Spectrum-X以太網絡平臺優化,可擴展到具有數萬個GPU的大型計算叢集。

通過Supermicro的4U液冷技術,NVIDIA近期推出的Blackwell GPU能在單一GPU上充分發揮20 PetaFLOPS的AI性能,且與較早的GPU相比,能提供4倍的AI訓練性能與30倍的推理性能,并節省額外成本。

Supermicro總裁兼首席執行官梁見后表示,我們的解決方案針對NVIDIA AI Enterprise軟件優化,滿足各行各業的客戶需求,并提供世界規模級效率的全球制造產能。因此我們得以縮短交付時間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案的可立即使用型液冷或氣冷計算叢集。



液冷型被越來越多的采用


Supermicro提供的數據中心的液冷配置設計可幾近免費,并通過能持續降低用電量的優勢為客戶提供額外價值。采用液冷方案的整體擁有成本將非常可觀,例如來自于后期運營過程當中的電力消耗的減少,5年可以節省高達6000萬美元的電費支出。Supermicro從液冷板到CDU乃至冷卻塔,其機柜級全方位液冷解決方案最大可以降低數據中心40%的持續用電量。

液冷并非新的技術,它存在已經超過30年,不過在采訪中,梁見后表示,之前液冷方案需求量小,并且交期長約4-12個月,以小型OEM為主。如今,Supermicro與客戶重新進行子系統和組件設計來提升數據中心的性能,并改善了交期,滿足更快的交付要求。

今年以來,客戶要求新建數據中心時直接采用液冷方案,也希望將舊有的氣冷數據中心部分轉換成液冷配置。在此需求刺激下,公司液冷業務的增長非常快,產能處于供不應求的狀態。

公司在荷蘭、美國和馬來西亞等全球各地擴大生產規模,預計2-3個月內馬來西亞新廠區即可投產。產能爬坡,供應能力增加,令客戶享受更低成本的初始投資方案以及更低的總擁有成本。

隨著大語言模型的服務器集群的需求增長,液冷方案有望成為主流。過去三十年液冷的市場份額估計都不到1%,但數據中心對液冷方案的采用逐漸增多,這一市占有望提高到15%以上。

不斷拓展液冷型產品線


NVIDIA創始人兼首席執行官黃仁勛對于Supermicro的設計給出高度評價,他表示生成式AI正在推動整個計算堆棧的重置,新的數據中心將會通過GPU進行計算加速,并針對AI優化。Supermicro設計了頂尖的NVIDIA加速計算和網絡解決方案,使價值數兆美元的全球數據中心能夠針對AI時代優化。

Supermicro目前的生成式AI SuperCluster液冷型產品包括Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個H100/H200 GPU,為5個機柜規模的可擴展計算單元(包括1 個專用網絡機柜)。即將推出的SuperCluster液冷型產品包括Supermicro NVIDIA HGX B200 SuperCluster液冷型,Supermicro NVIDIA GB200 NVL72 或NVL36 SuperCluster液冷型。

當然除了液冷型之外,也推出了氣冷型產品,例如氣冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個HGX H100/H200 GPU,為9個機柜規模的可擴展計算單元(包括1個專用網絡機柜),以及后續將推出的Supermicro NVIDIA HGX B100/B200 SuperCluster氣冷型。

Supermicro是主流的AI 服務器制造商之一。受益于 ChatGPT 引發的人工智能熱潮,再加上與英偉達的密切合作,這兩年Supermicro業績飆升,并受到資本市場的追捧。如今,Supermicro的液冷服務器技術直擊 AI 處理器功耗高的痛點,技術創新和產能提升下,公司的液冷服務器業務將成為強勁的成長動力。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5080

    瀏覽量

    103823
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4787

    瀏覽量

    129414
  • Supermicro
    +關注

    關注

    0

    文章

    32

    瀏覽量

    9354
  • 液冷
    +關注

    關注

    4

    文章

    108

    瀏覽量

    5127
收藏 人收藏

    評論

    相關推薦

    影響服務器GPU租用價格的因素

    服務器GPU租用的價格受多種因素影響,包括GPU型號和性能、租用時長、帶寬和流量、地理位置、供應和需求以及服務質量等。下面,AI部落小編為您詳細介紹。
    的頭像 發表于 12-30 10:38 ?224次閱讀

    GPU加速云服務器怎么用的

    GPU加速云服務器是將GPU硬件與云計算服務相結合,通過云服務提供商的平臺,用戶可以根據需求靈活租用帶有
    的頭像 發表于 12-26 11:58 ?133次閱讀

    GPU服務器租用費用貴嗎

    在云計算領域,GPU服務器因其強大的計算能力和圖形處理能力,被廣泛應用于多個領域。然而,對于許多企業和個人開發者來說,GPU服務器的租用費用仍然是一個重要的考慮因素。那么,
    的頭像 發表于 12-19 17:55 ?247次閱讀

    GPU服務器租用多少錢

    GPU服務器的租用價格受多種因素影響,包括服務提供商、GPU型號和性能、實例規格、計費模式、促銷活動以及地域差異等。下面,AI部落小編為您整理GP
    的頭像 發表于 12-09 10:50 ?258次閱讀

    租用GPU服務器一般多少錢

    租用GPU服務器的費用受到多種因素的影響,包括服務器配置、租用時長、服務提供商以及市場供需狀況等。下面,AI部落小編帶您了解租用GPU
    的頭像 發表于 11-25 10:28 ?334次閱讀

    英偉達CEO確認:液冷Grace Blackwell服務器無過熱問題

    近日,英偉達公司的首席執行官(CEO)針對外界關注的液冷Grace Blackwell服務器過熱問題,發表了明確的看法。他強調,采用液冷技術的Grace Blackwell服務器并不存
    的頭像 發表于 11-21 11:45 ?323次閱讀

    ADS1298將SPI提升到更高頻率將無法讀取任何信息,為什么?

    ,通過DRDY引腳的外部中斷中能正確的讀取測量的數據。最多能實現2KHz的數據采集。 現在要將數據采集率設置為8KHz,1MHz的SPI不夠用了。我嘗試將SPI的時鐘頻率提升到2,4,8,10MHz4個
    發表于 11-18 06:25

    GPU服務器和傳統的服務器有什么區別

    GPU服務器與傳統的服務器在多個方面存在顯著差異,主機推薦小編為您整理發布GPU服務器和傳統的服務器
    的頭像 發表于 11-07 11:05 ?303次閱讀

    GPU服務器AI網絡架構設計

    眾所周知,在大型模型訓練中,通常采用每臺服務器配備多個GPU的集群架構。在上一篇文章《高性能GPU服務器AI網絡架構(上篇)》中,我們對GPU
    的頭像 發表于 11-05 16:20 ?635次閱讀
    <b class='flag-5'>GPU</b><b class='flag-5'>服務器</b>AI網絡架構設計

    GPU高性能服務器配置

    GPU高性能服務器作為提升計算速度和效率的關鍵設備,在各大應用場景中發揮著越來越重要的作用。在此,petacloud.ai小編為你介紹GPU高性能
    的頭像 發表于 10-21 10:42 ?313次閱讀

    gpu服務器與cpu服務器的區別對比,終于知道怎么選了!

    gpu服務器與cpu服務器的區別主要體現在架構設計、性能特點、能耗效率、應用場景、市場定位等方面,在以上幾個方面均存在顯著差異。CPU服務器更適合數據庫管理和企業應用,而
    的頭像 發表于 08-01 11:41 ?581次閱讀

    算力服務器為什么選擇GPU

    隨著人工智能技術的快速普及,算力需求日益增長。智算中心的服務器作為支撐大規模數據處理和計算的核心設備,其性能優化顯得尤為關鍵。而GPU服務器也進入了大眾的視野,成為高性能計算的首選。那么,為什么算力
    的頭像 發表于 07-25 08:28 ?839次閱讀
    算力<b class='flag-5'>服務器</b>為什么選擇<b class='flag-5'>GPU</b>

    基于ESP32S進行BLE MESH開發,基于的是BLE4.2,是否可以提升到BLE5.0?

    1.現在基于ESP32S進行BLE MESH開發,基于的是BLE4.2,是否可以提升到BLE5.0? 2.BLE4.2是否可以接收到BLE5.0 Beacon?Code: Select all
    發表于 06-12 07:49

    PUE的拯救者,液冷服務器

    下,要想借助GPU密集的計算集群打造智算網絡,是肯定不能在散熱上馬虎的。為此,自19年起組建開展商業化應用的液冷服務器,開始慢慢搶占更多的市場份額。 ? 液冷的必要性 ? 隨著英偉達B
    的頭像 發表于 06-06 00:23 ?2858次閱讀
    PUE的拯救者,<b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網絡和熱 Embedding 全置于
    的頭像 發表于 04-20 09:39 ?830次閱讀
    主站蜘蛛池模板: 精品理论片 | 日日夜夜天天干干 | 夜夜综合网 | 97国内精品久久久久久久影视 | 欧美国产日本高清不卡 | 奇米欧美成人综合影院 | 天天做天天爱夜夜大爽完整 | 日本不卡视频免费 | 日韩免费高清一级毛片 | 米奇影院777 | 国产主播一区二区 | 亚洲专区一区 | 天堂最新版在线www在线 | 免费看国产精品久久久久 | 成人免费看片视频色多多 | 国产黄色在线视频 | 久精品视频村上里沙 | 奇米狠狠操 | 天堂网bt | 操操操综合网 | 美女一级毛片免费观看 | 午夜爱爱小视频 | www.欧美成 | 欧美乱淫 | 国产91色综合久久免费分享 | 网站免费黄| 亚洲午夜精品久久久久久成年 | 亚洲高清一区二区三区四区 | 一个色综合网站 | 女女色综合影院 | 国产三级精品播放 | 亚洲精品在线免费观看视频 | 韩国理论片2023现在观看 | 伊人2233| 日本视频色| 天天干夜夜怕 | 哺乳期xxxx视频 | 边摸边吃奶边做视频叫床韩剧 | 国内露脸夫妇交换精品 | 国产综合色在线视频区色吧图片 | 欧美啪啪精品 |