在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

百度智算峰會(huì)精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

NVIDIA英偉達(dá) ? 來(lái)源:未知 ? 2022-12-27 21:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在今日舉行的“2022 百度云智峰會(huì)·智算峰會(huì)”上,NVIDIA 解決方案工程中心高級(jí)技術(shù)經(jīng)理路川分享了以“應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)”為題的演講,探討 GPU 數(shù)據(jù)中心的發(fā)展趨勢(shì),以及介紹 NVIDIA 在構(gòu)建以 GPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu)方面的實(shí)踐經(jīng)驗(yàn)。以下為內(nèi)容概要。

應(yīng)用對(duì)算力需求的不斷增長(zhǎng)

以 GPU 為核心的分布式計(jì)算系統(tǒng)已經(jīng)成為大模型應(yīng)用重要的一環(huán)

數(shù)據(jù)中心的發(fā)展是由應(yīng)用驅(qū)動(dòng)的。隨著 AI 的興起、普及,AI 大模型訓(xùn)練在各領(lǐng)域的逐步應(yīng)用,人們對(duì)數(shù)據(jù)中心的 GPU 算力、GPU 集群的需求在飛速增長(zhǎng)。傳統(tǒng)的以 CPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu),已很難滿(mǎn)足 AI 應(yīng)用的發(fā)展需求,NVIDIA 也一直在探索如何構(gòu)建一個(gè)高效的以 GPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu)。

今天我將從三個(gè)方面跟大家一起探討這個(gè)話(huà)題:一,應(yīng)用驅(qū)動(dòng);二,NVIDIA 最新一代 GPU SuperPOD 的架構(gòu)設(shè)計(jì);三,未來(lái) GPU 數(shù)據(jù)中心、GPU 集群的發(fā)展趨勢(shì) 。

我們首先看下近幾年 AI 應(yīng)用的發(fā)展趨勢(shì)。總體上來(lái)講,應(yīng)用業(yè)務(wù)對(duì)計(jì)算的需求是不斷飛速增長(zhǎng)。我們以目前最流行的三個(gè)業(yè)務(wù)方向?yàn)槔f(shuō)明。

6ff18624-85e8-11ed-bfe3-dac502259ad0.png

第一個(gè)應(yīng)用場(chǎng)景,AI 應(yīng)用。我們可以從最左邊的圖表中可以看到,近 10 年 CV 和 NLP 模型的變化,這兩類(lèi)業(yè)務(wù)場(chǎng)景是 AI 領(lǐng)域最流行、最成功,也是應(yīng)用范圍最為廣泛的場(chǎng)景。在圖表中我們可以看到,CV 從 2012 年的 AlexNet 到最新的 wav2vec,模型對(duì)計(jì)算的需求增長(zhǎng)了 1,000 倍。

NLP 模型在引入 Transformer 結(jié)構(gòu)后,模型規(guī)模呈指數(shù)級(jí)增長(zhǎng),Transformer 已成為大模型、大算力的代名詞。目前 CV 類(lèi)的應(yīng)用也逐步引入 Transformer 結(jié)構(gòu)來(lái)構(gòu)建相關(guān)的 AI 模型,不斷提升應(yīng)用性能。數(shù)據(jù)顯示在最近兩年內(nèi)關(guān)于 Transformer AI 模型的論文增長(zhǎng)了 150 倍,而非 Transformer 結(jié)構(gòu)的 AI 模型相關(guān)論文增長(zhǎng)了大概 8 倍。

我們可以看到人們?cè)絹?lái)越意識(shí)到大模型在 AI 領(lǐng)域的重要性,和對(duì)應(yīng)用帶來(lái)的收益。同時(shí)大模型也意味著算力的需求的增長(zhǎng),以及對(duì)數(shù)據(jù)中心計(jì)算集群需求的增長(zhǎng)。

第二個(gè)應(yīng)用場(chǎng)景,數(shù)字孿生、虛擬人等模擬場(chǎng)景與 AI 的結(jié)合也是最近兩年的應(yīng)用熱點(diǎn)。人們通過(guò)數(shù)字孿生、虛擬人可以更好地對(duì)企業(yè)生產(chǎn)流程進(jìn)行管控,線(xiàn)上虛擬交互有更好的體驗(yàn),這背后都需要要巨大的算力資源來(lái)滿(mǎn)足渲染、實(shí)時(shí)交互等功能。

第三個(gè)應(yīng)用場(chǎng)景,量子計(jì)算,也是最近幾年我們計(jì)算熱點(diǎn)的技術(shù)。量子計(jì)算是利用量子力學(xué),可以比傳統(tǒng)的計(jì)算機(jī)更快地解決復(fù)雜的問(wèn)題。量子計(jì)算機(jī)的發(fā)展還處在非常前期的階段,相關(guān)的量子算法的研究和應(yīng)用也需要大量的算力做模擬支撐。

前面我們提到了 AI 大模型的業(yè)務(wù)應(yīng)用,為什么要用到大模型,大模型可以給我們帶來(lái)什么樣的收益?

701bf95e-85e8-11ed-bfe3-dac502259ad0.png

在右圖中我們可以看到 1.5B GPT-2 和 MT-NLG 在 150B-270B 不同參數(shù)規(guī)模下對(duì)應(yīng)用精度的影響。

我們可以清楚地看到大模型對(duì)應(yīng)用精度的效果,尤其是對(duì)復(fù)雜、泛化的業(yè)務(wù)場(chǎng)景的表現(xiàn)尤為突出。同時(shí)大模型在預(yù)測(cè)(inference)端正在快速發(fā)展,優(yōu)化特定場(chǎng)景、特定行業(yè)的性能,優(yōu)化預(yù)測(cè)端計(jì)算資源使用等,相信在不久的將來(lái)會(huì)有更多像 ChatGPT 一樣令人驚嘆的應(yīng)用在行業(yè)落地。這都將會(huì)推動(dòng)大模型基礎(chǔ)研究,推動(dòng)對(duì)訓(xùn)練大模型所需算力的建設(shè)。一個(gè)以 GPU 為基礎(chǔ)的分布式計(jì)算系統(tǒng)也是大模型應(yīng)用所必須的。

AI 大模型訓(xùn)練為什么要用到 GPU 集群,用到更大規(guī)模的 GPU?它能給我們的訓(xùn)練帶來(lái)什么樣的收益?這邊我們用兩個(gè)實(shí)際的例子作為參考。

一個(gè)應(yīng)用是 BERT 340M 參數(shù)規(guī)模,使用 Selene A100 SuperPOD 集群,訓(xùn)練完成則需要 0.2 分鐘,在使用 1/2 個(gè)集群規(guī)模,訓(xùn)練完成需要 0.4 分鐘,使用 1/4 個(gè)集群規(guī)模下訓(xùn)練完成則需要 0.7 分鐘。我們可以看到在小參數(shù)規(guī)模下,使用幾十臺(tái) DGX A100 也可以快速完成整個(gè)訓(xùn)練任務(wù),對(duì)于整個(gè)訓(xùn)練的迭代影響并不大。

另一個(gè)是 Megatron 530B 參數(shù)規(guī)模的 NLP 大模型,訓(xùn)練這個(gè) 530B 參數(shù)的大模型,使用整個(gè) Selene SuperPOD 集群資源則需要 3.5 周、近一個(gè)月的時(shí)間才能完成,而使用 1/2、1/4 集群節(jié)點(diǎn)規(guī)模的情況下,則需要數(shù)月的訓(xùn)練時(shí)間才能完成整個(gè)訓(xùn)練,這對(duì)于大模型研發(fā)人員來(lái)說(shuō)是不可接受的。另外研發(fā)人員的時(shí)間成本是非常寶貴的,研究到產(chǎn)品化的時(shí)間也是非常關(guān)鍵的,我們不可能把時(shí)間浪費(fèi)在訓(xùn)練等待上。

在管理層面,構(gòu)建一個(gè) GPU 集群,通過(guò)集群的作業(yè)調(diào)度和管理系統(tǒng),可以?xún)?yōu)化調(diào)度各種類(lèi)型、各種需求的 GPU 任務(wù),使用集群的 GPU 資源,以最大化利用 GPU 集群。在 Facebook 的一篇論文中提到,通過(guò)作業(yè)調(diào)度管理系統(tǒng),F(xiàn)acebook AI 超級(jí)計(jì)算系統(tǒng)上每天可以承載 3.5 萬(wàn)個(gè)獨(dú)立的訓(xùn)練任務(wù)。

因此,GPU 規(guī)模和集群管理對(duì)于提升分布式任務(wù)的運(yùn)行效率非常關(guān)鍵。

集群的最關(guān)鍵的地方就是通信,集群任務(wù)的調(diào)試優(yōu)化重點(diǎn)也是在使用各種并行方式優(yōu)化通信策略。在 GPU 集群中,通信主要分為兩個(gè)部分,一個(gè)是節(jié)點(diǎn)內(nèi)通信,一個(gè)是節(jié)點(diǎn)間通信。

70449b2a-85e8-11ed-bfe3-dac502259ad0.png

在左圖中我們可以看到節(jié)點(diǎn)間通信 NVLink 對(duì)于它的重要性。圖中示例使用 tensor 并行的方式,在節(jié)點(diǎn)間分別采用 NVLink 和采用 PCIe 4.0 進(jìn)行通信的對(duì)比,我們可以看到,NVLink 環(huán)境下程序的通信時(shí)間僅需 70ms(毫秒),而 PCIe 環(huán)境下通信時(shí)間則需要 656ms,當(dāng)用多個(gè)節(jié)點(diǎn)組成的集群環(huán)境下差距會(huì)更加明顯。

在右圖中,我們使用 7.5B 的 AI 模型,采用 TPS=4,PPS=1,數(shù)據(jù)并行 DPS=64 的情況下,在 32 個(gè)集群的節(jié)點(diǎn)規(guī)模下,不同網(wǎng)卡對(duì)分布式訓(xùn)練任務(wù)的影響。紫色部分代表了通信占比,綠色代表計(jì)算時(shí)間占比。我們可以清晰地看到網(wǎng)卡數(shù)量、網(wǎng)絡(luò)帶寬對(duì)分布式應(yīng)用的性能的影響。

GPU 集群應(yīng)用于 AI 訓(xùn)練也是最近幾年才逐步在客戶(hù)中開(kāi)始應(yīng)用。在 AI 發(fā)展的早期,模型較小,大部分采單機(jī)多卡或是多機(jī)數(shù)據(jù)并行的方式進(jìn)行訓(xùn)練,所以對(duì) GPU 集群的要求并不是很高。2018 年 11 月,NVIDIA 第一次推出基于 DGX-2 的 SuperPOD 架構(gòu),也是看到 AI 發(fā)展的趨勢(shì),看到了 AI 應(yīng)用對(duì) GPU 分布式集群在 AI 訓(xùn)練中的需求。

SuperPOD 的架構(gòu)也在不斷地演進(jìn)和優(yōu)化。通過(guò) NVIDIA 實(shí)戰(zhàn)經(jīng)驗(yàn)和性能優(yōu)化驗(yàn)證,SuperPOD 可以幫助客戶(hù)迅速構(gòu)建起屬于自己的高性能 GPU 分布式集群。

NVIDIA 最新一代 Hopper GPU 架構(gòu)下 SuperPod 的集群拓?fù)?/strong>

下面我來(lái)簡(jiǎn)單介紹下,最新一代 Hopper GPU 架構(gòu)下 SuperPOD 的集群拓?fù)洹?/p>

計(jì)算節(jié)點(diǎn)采用 Hopper 最新的 GPU,相比較與 Ampere GPU 性能提升 2~3 倍。計(jì)算性能的提升需要更強(qiáng)的網(wǎng)絡(luò)帶寬來(lái)支撐,所以外部的網(wǎng)絡(luò)也由原來(lái)的 200Gb 升級(jí)為 400Gb,400Gb 的網(wǎng)絡(luò)交換機(jī)可以最多支撐到 64 個(gè) 400Gb 網(wǎng)口,所以每個(gè)計(jì)算 POD 由原來(lái)的 20 個(gè)變?yōu)?32 個(gè)。更高的計(jì)算密度,在一個(gè) POD 內(nèi) GPU 直接的通信效率要更高。

NDR Infiniband 網(wǎng)絡(luò)、AR、SHARP、SHIELD 等新的特性,在路由交換效率、聚合通信加速、網(wǎng)絡(luò)穩(wěn)定性等方面有了進(jìn)一步的提升,可以更好的支持分布式大規(guī)模 GPU 集群計(jì)算性能和穩(wěn)定性。在存儲(chǔ)和管理網(wǎng)絡(luò)方面,增加了智能網(wǎng)卡的支持,可以提供更多的管理功能,適應(yīng)不同客戶(hù)的需求。

未來(lái)數(shù)據(jù)中心 GPU 集群架構(gòu)的發(fā)展趨勢(shì):

計(jì)算、互聯(lián)、軟件

下面,站在 NVIDIA 的角度,我們?cè)賮?lái)探討一下,未來(lái)數(shù)據(jù)中心 GPU 集群的架構(gòu)發(fā)展趨勢(shì)。整個(gè) GPU 的集群主要有三個(gè)關(guān)鍵因素,分別是:計(jì)算、互聯(lián)和軟件。

706c1eca-85e8-11ed-bfe3-dac502259ad0.png

一,計(jì)算。集群的架構(gòu)設(shè)計(jì)中,單節(jié)點(diǎn)計(jì)算性能越高,越有優(yōu)勢(shì),所以在 GPU 選擇上我們會(huì)采用最新的 GPU 架構(gòu),這樣會(huì)帶來(lái)更強(qiáng)的 GPU 算力。

在未來(lái)兩年,Hopper 將成為 GPU 分布式計(jì)算集群的主力 GPU。Hopper GPU 我相信大家已經(jīng)很了解,相關(guān)特性我在這就不在贅述。我只強(qiáng)調(diào)一個(gè)功能,Transformer 引擎。

在上文應(yīng)用的發(fā)展趨勢(shì)里,我們也提到了以 Transformer 為基礎(chǔ)的 AI 大模型的研究。Transformer 也是大模型分布式計(jì)算的代名詞,在 Hopper 架構(gòu)里新增加了 Transformer 引擎,就是專(zhuān)門(mén)為 Transformer 結(jié)構(gòu)而設(shè)計(jì)的 GPU 加速單元,這會(huì)極大地加速基于 Transformer 結(jié)構(gòu)的大模型訓(xùn)練效率。

二,互聯(lián)。GPU 是 CPU 的加速器,集群計(jì)算的另外一個(gè)重要組成部分是 CPU。NVIDIA 會(huì)在 2023 年發(fā)布基于 Arm 72 核、專(zhuān)為高性能設(shè)計(jì)的 Grace CPU,配置 500GB/s LPDDR5X 內(nèi)存,900GB/s NVLink, 可以跟 GPU 更好地配合,輸出強(qiáng)大的計(jì)算性能。

基于 Grace CPU,會(huì)有兩種形態(tài)的超級(jí)芯片,一是 Grace+Hopper,二是 Grace+Grace。

Grace+Hopper,我們知道 GPU 作為 CPU 加速器,并不是所有應(yīng)用任務(wù)都適用于 GPU 來(lái)加速,其中很關(guān)鍵的一個(gè)點(diǎn)就是 GPU 和 CPU 之間的存儲(chǔ)帶寬的瓶頸,Grace+Hopper 超級(jí)芯片就是解決此類(lèi)問(wèn)題。

在 Grace Hopper 超級(jí)芯片架構(gòu)下,GPU 可以通過(guò)高速的 NVLink 直接訪(fǎng)問(wèn)到 CPU 顯存。對(duì)于大模型計(jì)算,更多應(yīng)用遷移到GPU上加速都有極大的幫助。

Grace+Grace ,是在一個(gè)模組上可以提供高達(dá) 144 CPU 核,1 TB/s LPDDR5X 的高速存儲(chǔ),給集群節(jié)點(diǎn)提供了強(qiáng)勁的單節(jié)點(diǎn)的 CPU 計(jì)算性能,從而提升整個(gè)集群效率。

70f99ac0-85e8-11ed-bfe3-dac502259ad0.png

之前我們所熟知的 NVLink,都是應(yīng)用在節(jié)點(diǎn)內(nèi) GPU 和 GPU 之間的互聯(lián)。在 Grace Hopper 集群下,NVLink 可以做到節(jié)點(diǎn)之間互聯(lián),這樣節(jié)點(diǎn)之間 GPU-GPU,或 GPU-CPU,或 CPU-CPU 之間,都可以通過(guò)高速的 NVLink 進(jìn)行互聯(lián),可以更高效地完成大模型的分布式計(jì)算。

在未來(lái)也許我們可以看到更多業(yè)務(wù)應(yīng)用遷移到 Grace+Hopper 架構(gòu)下,節(jié)點(diǎn)之間的 NVLlink 高速互聯(lián)也許會(huì)成為一個(gè)趨勢(shì),更好地支持 GPU 分布式計(jì)算。

智能網(wǎng)卡在集群中的應(yīng)用,首先智能網(wǎng)卡技術(shù)并不是一個(gè)新的技術(shù),各家也有各家的方案,傳統(tǒng)上我們可以利用智能網(wǎng)卡把云業(yè)務(wù)場(chǎng)景下的 Hypervisor 管理、網(wǎng)絡(luò)功能、存儲(chǔ)功能等卸載到智能網(wǎng)卡上進(jìn)行處理,這樣可以給云客戶(hù)提供一個(gè)云生的計(jì)算資源環(huán)境。NVIDIA 智能網(wǎng)卡跟百度也有很深的合作,包括 GPU 集群裸金屬方案也都配置了 NVIDIA 智能網(wǎng)卡進(jìn)行管理。

在非 GPU 的業(yè)務(wù)場(chǎng)景下,我們看到智能網(wǎng)卡對(duì) HPC 應(yīng)用業(yè)務(wù)的加速,主要是在分子動(dòng)力學(xué),氣象和信號(hào)處理應(yīng)用上,通過(guò)對(duì)集群中聚合通信的卸載,我們可以看到應(yīng)用可以獲得 20% 以上的收益。智能網(wǎng)卡技術(shù)也在不斷更新、升級(jí),業(yè)務(wù)場(chǎng)景也在不斷探索。相信在未來(lái)的 GPU 集群上會(huì)有更多的業(yè)務(wù)或優(yōu)化加速可以使用到智能網(wǎng)卡技術(shù)。

三,軟件。數(shù)據(jù)中心基礎(chǔ)設(shè)施是基礎(chǔ)底座,如何能夠更高效、快速、方便地應(yīng)用到基礎(chǔ)架構(gòu)變革所帶來(lái)的優(yōu)勢(shì),軟件生態(tài)的不斷完善和優(yōu)化是關(guān)鍵。

針對(duì)不同的業(yè)務(wù)場(chǎng)景,NVIDIA 提供了 SuperPOD、OVX 等數(shù)據(jù)中心基礎(chǔ)設(shè)施的參考架構(gòu),可以幫助用戶(hù)構(gòu)建最優(yōu)的數(shù)據(jù)中心基礎(chǔ)設(shè)施架構(gòu)。

上層提供了各種軟件加速庫(kù),如 cuQuantum 可以幫助客戶(hù)直接在 GPU 集群上模擬量子算法計(jì)算,Magnum IO 用來(lái)加速數(shù)據(jù)中心 GPU 集群和存儲(chǔ)系統(tǒng)的訪(fǎng)存 IO 效率,提升整個(gè)集群計(jì)算效率。

在未來(lái)會(huì)有更多的軟件工具、行業(yè) SDK,來(lái)支撐數(shù)據(jù)中心架構(gòu)的使用,讓各領(lǐng)域的研發(fā)人員不需要了解底層細(xì)節(jié),更加方便、快速地使用到數(shù)據(jù)中心 GPU 集群的的最優(yōu)性能。


原文標(biāo)題:百度智算峰會(huì)精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3933

    瀏覽量

    93374

原文標(biāo)題:百度智算峰會(huì)精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    明晚開(kāi)播 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的架構(gòu)創(chuàng)新

    鷺島論壇數(shù)據(jù)智能系列講座第6期「大模型革命背后的架構(gòu)創(chuàng)新」/RVEI并行計(jì)算工作組(SIG-PP)技術(shù)沙龍/明晚(21日)8點(diǎn)精彩開(kāi)播期
    的頭像 發(fā)表于 05-20 08:04 ?88次閱讀
    明晚開(kāi)播 | <b class='flag-5'>數(shù)據(jù)</b>智能系列講座第6期:大模型革命背后的<b class='flag-5'>算</b>力<b class='flag-5'>架構(gòu)</b>創(chuàng)新

    直播預(yù)約 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的架構(gòu)創(chuàng)新

    鷺島論壇數(shù)據(jù)智能系列講座第6期「大模型革命背后的架構(gòu)創(chuàng)新」/RVEI并行計(jì)算工作組(SIG-PP)技術(shù)沙龍/5月21日(周三)20:00精彩
    的頭像 發(fā)表于 05-12 14:05 ?149次閱讀
    直播預(yù)約 | <b class='flag-5'>數(shù)據(jù)</b>智能系列講座第6期:大模型革命背后的<b class='flag-5'>算</b>力<b class='flag-5'>架構(gòu)</b>創(chuàng)新

    適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)

    ,成為新一代AI數(shù)據(jù)中心的核心驅(qū)動(dòng)力。 AI時(shí)代的兩大數(shù)據(jù)中心:AI工廠(chǎng)與AI云 AI時(shí)代催生了兩類(lèi)數(shù)據(jù)中心架構(gòu): AI工廠(chǎng):用
    發(fā)表于 03-25 17:35

    優(yōu)化800G數(shù)據(jù)中心:高速線(xiàn)纜、有源光纜和光纖跳線(xiàn)解決方案

    隨著技術(shù)的飛速發(fā)展,數(shù)據(jù)中心正在從100G和400G演進(jìn)到800G時(shí)代,對(duì)高速數(shù)據(jù)傳輸?shù)男枨笈c日俱增。因此,選擇高效且可靠的布線(xiàn)解決方案對(duì)于800G數(shù)據(jù)中心至關(guān)重要。本文將深入探討80
    發(fā)表于 03-24 14:20

    數(shù)據(jù)中心發(fā)展與改造

    存在的問(wèn)題 1.?電費(fèi)成本高企,占比超40% 數(shù)據(jù)中心電力成本占運(yùn)營(yíng)總成本的40%-60%,部分AI力密集型場(chǎng)景甚至高達(dá)70%。以年耗電2000萬(wàn)的中型數(shù)據(jù)中心為例,按平均電價(jià)0.
    的頭像 發(fā)表于 02-28 16:50 ?362次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>發(fā)展與改造

    中心會(huì)取代通用中心嗎?

    隨著人工智能(AI)技術(shù)的飛速發(fā)展,計(jì)算需求不斷攀升,數(shù)據(jù)中心行業(yè)正經(jīng)歷著前所未有的變革。傳統(tǒng)的通用中心與新興的智
    的頭像 發(fā)表于 01-06 14:45 ?525次閱讀
    智<b class='flag-5'>算</b><b class='flag-5'>中心</b>會(huì)取代通用<b class='flag-5'>算</b>力<b class='flag-5'>中心</b>嗎?

    回顧寧暢2024年精彩瞬間

    回顧2024年,在智能計(jì)算驅(qū)動(dòng)產(chǎn)業(yè)發(fā)展時(shí)代趨勢(shì)下,寧暢以定制化與全棧全液能力,繼續(xù)發(fā)力智與液冷領(lǐng)域,提出了新想法、發(fā)布了新產(chǎn)品、達(dá)成了新標(biāo)準(zhǔn)、收獲了新榮譽(yù),為加速千行
    的頭像 發(fā)表于 12-31 16:43 ?976次閱讀

    百度文心大模型日均調(diào)用量超15億

    近日,百度在上海世博中心舉辦了主題為“應(yīng)用來(lái)了”的百度世界2024大會(huì)。會(huì)上,百度董事長(zhǎng)李彥宏分享了關(guān)于大模型行業(yè)的最新動(dòng)態(tài)和百度文心大模型
    的頭像 發(fā)表于 11-12 15:28 ?663次閱讀

    計(jì)算數(shù)據(jù)中心的關(guān)系

    計(jì)算數(shù)據(jù)中心之間存在著密切且復(fù)雜的關(guān)系,它們相互依存、互相促進(jìn)。 一、數(shù)據(jù)中心是云計(jì)算的基礎(chǔ)設(shè)施 數(shù)據(jù)中心是一整套復(fù)雜的設(shè)施,用于傳遞、
    的頭像 發(fā)表于 10-24 16:15 ?1460次閱讀

    簡(jiǎn)述數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)的演變

    隨著全球?qū)θ斯ぶ悄埽ˋI)的需求不斷增長(zhǎng),數(shù)據(jù)中心作為AI計(jì)算的重要基礎(chǔ)設(shè)施,其網(wǎng)絡(luò)架構(gòu)與連接技術(shù)的發(fā)展變得尤為關(guān)鍵。
    的頭像 發(fā)表于 10-22 16:23 ?770次閱讀

    英特爾至強(qiáng)6能效核處理器助力數(shù)據(jù)中心變革

    在過(guò)去十年,越來(lái)越多的企業(yè)將業(yè)務(wù)遷移到云端,云計(jì)算成為推動(dòng)數(shù)據(jù)中心建設(shè)的主要驅(qū)動(dòng)力。隨著人工智能的不斷發(fā)展,尤其是大語(yǔ)言模型等AI技術(shù)的爆發(fā)和廣泛應(yīng)用,市場(chǎng)對(duì)力的需求也在不斷增加,進(jìn)
    的頭像 發(fā)表于 10-12 10:17 ?697次閱讀

    數(shù)據(jù)中心產(chǎn)品通常包括哪些

    人工智能快速發(fā)展帶來(lái)了海量的大數(shù)據(jù)數(shù)據(jù)中心計(jì)算機(jī)的需求正在急劇增長(zhǎng)。數(shù)據(jù)中心基礎(chǔ)設(shè)施承擔(dān)著數(shù)據(jù)傳遞、加速、展示、計(jì)算和存儲(chǔ)等功能。隨著
    的頭像 發(fā)表于 10-11 11:12 ?1445次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>產(chǎn)品通常包括哪些

    英特爾與百度共同為AI時(shí)代打造高性能基礎(chǔ)設(shè)施

    2024年9月25日,北京 ?——?在2024百度云智大會(huì)上,英特爾應(yīng)邀出席并披露基于英特爾?至強(qiáng)?6處理器的新一代云實(shí)例即將在百度智能云上推出,分享雙方在云數(shù)據(jù)中心、大模型軟件服務(wù)與生態(tài)以及
    的頭像 發(fā)表于 09-27 09:48 ?409次閱讀
    英特爾與<b class='flag-5'>百度</b>共同為AI時(shí)代打造高性能基礎(chǔ)設(shè)施

    百度舸AI計(jì)算平臺(tái)4.0震撼發(fā)布

    在2024年百度云智大會(huì)的璀璨舞臺(tái)上,百度智能云重磅推出了舸AI異構(gòu)計(jì)算平臺(tái)的全新力作——4.0版本。此次升級(jí),標(biāo)志著百度在AI基礎(chǔ)設(shè)施領(lǐng)
    的頭像 發(fā)表于 09-26 14:46 ?848次閱讀

    Molex連接器助力構(gòu)建未來(lái)數(shù)據(jù)中心 充分發(fā)揮人工智能AI的力量

    AI數(shù)據(jù)中心計(jì)算龐大的數(shù)據(jù)集,并且以文本、視頻、音頻、圖片等形式做出實(shí)時(shí)響應(yīng)。 為了滿(mǎn)足性能需求,數(shù)據(jù)中心架構(gòu)師必須擴(kuò)展系統(tǒng)結(jié)構(gòu),通過(guò) PAM4 調(diào)制方案支持 224 Gbps
    的頭像 發(fā)表于 08-29 11:57 ?2445次閱讀
    Molex連接器助力構(gòu)建未來(lái)<b class='flag-5'>數(shù)據(jù)中心</b> 充分發(fā)揮人工智能AI的力量
    主站蜘蛛池模板: 久久久久久久免费 | 一区二区三区四区在线观看视频 | 亚洲国产精品久久精品怡红院 | 在线aa | 最近高清免费观看视频 | 日产精品卡二卡三卡四卡无卡乱码 | 91成人免费 | 99久精品| 黄色网在线 | 国产99久9在线视频 国产99久久九九精品免费 | 亚洲国产成人精品女人久久久 | 伊人网网 | 亚洲人成综合网站在线 | 人人添| 老师叫我下面含着精子去上课 | 亚洲精品播放 | 久久人视频| 久久怡红院国产精品 | 加勒比一本一道在线 | 国产精品二区三区免费播放心 | 天天射天天干天天色 | 欧美成人一区亚洲一区 | 日韩毛片在线视频 | 人人做天天爱夜夜爽中字 | 夜夜澡人人爽人人喊_欧美 夜夜综合网 | 日本xxxxxxxxx68 | 男校霸把男校草玩出水男男 | 天天色综合天天 | 天天做爽夜夜做爽 | aaaa级毛片 | 99国产福利 | 国产美女主播一级成人毛片 | jlzzjlzz欧美大全 | 国产大乳美女挤奶视频 | 久久久五月 | 欧美色图久久 | 日韩毛片在线视频 | 国产老师的丝袜在线看 | 一级片在线视频 | a级毛片网 | 人人艹在线视频 |