在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟和谷歌分別開源分布式深度學(xué)習(xí)框架對(duì)比

工程師鄧生 ? 來(lái)源:大數(shù)據(jù)文摘微信公眾號(hào) ? 作者:Miggy ? 2020-11-01 10:49 ? 次閱讀

微軟和谷歌一直在積極研究用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的新框架,并且在最近將各自的成果開源——微軟的 PipeDream 和谷歌的 GPipe。

原則上看,他們都遵循了類似的原則來(lái)訓(xùn)練深度學(xué)習(xí)模型。這兩個(gè)項(xiàng)目已在各自的研究論文(PipeDream,GPipe)中進(jìn)行了詳細(xì)介紹,這篇文章將對(duì)此進(jìn)行總結(jié)。

先放上 GitHub 開源地址:

微軟:

https://github.com/msr-fiddle/pipedream

谷歌:

https://github.com/tensorflow/lingvo/blob/master/lingvo/core/gpipe.py

眾所周知,在實(shí)驗(yàn)過程中,雖然訓(xùn)練基本模型比較瑣碎,但復(fù)雜度卻隨模型的質(zhì)量和大小線性增加。例如,2014 年 ImageNet 視覺識(shí)別挑戰(zhàn)賽的冠軍是 GoogleNet,它通過 400 萬(wàn)個(gè)參數(shù)獲得了 74.8% 的 top1 準(zhǔn)確性,而僅僅三年之后,2017 年 ImageNet 挑戰(zhàn)賽的冠軍就使用 1.458 億個(gè)參數(shù)(多了 36 倍)的最新神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了 top1 準(zhǔn)確率——82.7%。但是,在同一時(shí)期,GPU 內(nèi)存僅增加了約 3 倍。

隨著模型縮放以達(dá)到更高的準(zhǔn)確性,對(duì)這些模型的訓(xùn)練變得越來(lái)越具有挑戰(zhàn)性。前面的樣本也顯示了,依靠 GPU 基礎(chǔ)結(jié)構(gòu)的改進(jìn)來(lái)實(shí)現(xiàn)更好的訓(xùn)練是不可持續(xù)的。我們需要分布式計(jì)算方法,這些方法可以并行化跨不同節(jié)點(diǎn)的訓(xùn)練工作量,以擴(kuò)展訓(xùn)練規(guī)模。分布式訓(xùn)練的概念聽起來(lái)很瑣碎,但實(shí)際上卻極其復(fù)雜。

谷歌的 GPipe GPipe

專注于擴(kuò)展深度學(xué)習(xí)計(jì)劃的訓(xùn)練工作量。從基礎(chǔ)架構(gòu)的角度來(lái)看,訓(xùn)練過程的復(fù)雜性是深度學(xué)習(xí)模型經(jīng)常被忽視的一個(gè)方面。訓(xùn)練數(shù)據(jù)集越來(lái)越大,越來(lái)越復(fù)雜。例如,在醫(yī)療保健領(lǐng)域,需要使用數(shù)百萬(wàn)個(gè)高分辨率圖像進(jìn)行訓(xùn)練的模型并不罕見。結(jié)果,訓(xùn)練過程通常要花費(fèi)很長(zhǎng)時(shí)間才能完成,并且內(nèi)存和 CPU 消耗非常大。

思考深度學(xué)習(xí)模型的分布式的有效方法是將其劃分為數(shù)據(jù)分布式和模型分布式。數(shù)據(jù)分布式方法采用大型機(jī)器集群,將輸入數(shù)據(jù)拆分到它們之間。模型分布式嘗試將模型移至具有特定硬件的加速器,例如 GPU 或 TPU,以加速模型訓(xùn)練。

概念上看,幾乎所有訓(xùn)練數(shù)據(jù)集都可以按照一定的邏輯進(jìn)行分布式訓(xùn)練,但是關(guān)于模型的說(shuō)法卻不盡相同。例如,一些深度學(xué)習(xí)模型由可以獨(dú)立訓(xùn)練的并行分支組成。在那種情況下,經(jīng)典策略是將計(jì)算劃分為多個(gè)分區(qū),并將不同的分區(qū)分配給不同的分支。但是,這種策略在按順序堆疊各層的深度學(xué)習(xí)模型中是不足的。

GPipe 通過利用一種稱為流水線的技術(shù)將數(shù)據(jù)和模型分布式結(jié)合在一起。從概念上講,GPipe 是一個(gè)分布式機(jī)器學(xué)習(xí)庫(kù),它使用同步隨機(jī)梯度下降和流水線分布式進(jìn)行訓(xùn)練,適用于由多個(gè)連續(xù)層組成的任何 DNN。

GPipe 在不同的加速器之間劃分模型,并自動(dòng)將一小批訓(xùn)練樣本拆分為較小的微批。該模型允許 GPipe 的加速器并行運(yùn)行,從而最大限度地提高了訓(xùn)練過程的可擴(kuò)展性。

下圖說(shuō)明了具有連續(xù)層的神經(jīng)網(wǎng)絡(luò)的 GPipe 模型在四個(gè)加速器之間分配。Fk 是第 k 個(gè)分區(qū)的復(fù)合正向計(jì)算函數(shù)。Bk 是相應(yīng)的反向傳播函數(shù)。Bk 取決于上層的 Bk + 1 和 Fk 的中間激活。在頂級(jí)模型中,我們可以看到網(wǎng)絡(luò)的順序性質(zhì)如何導(dǎo)致資源利用不足。下圖顯示了 GPipe 方法,其中將輸入的迷你批處理分為較小的宏批處理,這些宏批處理可由加速器同時(shí)處理。

圖片來(lái)源:

https://arxiv.org/pdf/1811.06965.pdf

微軟的 PipeDream

幾個(gè)月前,微軟研究院宣布創(chuàng)建 Project Fiddle,這是一系列旨在簡(jiǎn)化分布式深度學(xué)習(xí)的研究項(xiàng)目。PipeDreams 是 Fiddle 項(xiàng)目首次發(fā)布的版本之一,專注于深度學(xué)習(xí)模型訓(xùn)練的并行化。

PipeDream 采用與其他方法不同的方法來(lái)利用稱為管道分布式的技術(shù)來(lái)擴(kuò)展深度學(xué)習(xí)模型的訓(xùn)練。這種方法試圖解決數(shù)據(jù)和模型并行技術(shù)的一些挑戰(zhàn),例如 GPipe 中使用的技術(shù)。

通常,在云基礎(chǔ)架構(gòu)上進(jìn)行訓(xùn)練時(shí),數(shù)據(jù)并行方法在規(guī)模上會(huì)承受較高的通信成本,并且隨著時(shí)間的推移會(huì)提高 GPU 計(jì)算速度。類似地,模型分布式技術(shù)通常在利用硬件資源上更加效率低下,程序員需要決定如何在給定硬件部署的情況下拆分其特定模型,給他們帶來(lái)了不必要的負(fù)擔(dān)。

圖片來(lái)源:

http://www.microsoft.com/zh-cn/research/uploads/prod/2019/08/fiddle_pipedream_sosp19.pdf

PipeDream 嘗試通過使用稱為管道分布式的技術(shù)來(lái)克服數(shù)據(jù)模型分布式方法的一些挑戰(zhàn)。

從概念上講,管道分布計(jì)算涉及將 DNN 模型的各層劃分為多個(gè)階段,其中每個(gè)階段均由模型中的一組連續(xù)層組成。每個(gè)階段都映射到一個(gè)單獨(dú)的 GPU,該 GPU 對(duì)該階段中的所有層執(zhí)行正向傳遞(和反向傳遞)。

給定一個(gè)特定的深度神經(jīng)網(wǎng)絡(luò),PipeDream 會(huì)基于在單個(gè) GPU 上執(zhí)行的簡(jiǎn)短概要分析,自動(dòng)確定如何對(duì) DNN 的運(yùn)算符進(jìn)行分區(qū),在不同階段之間平衡計(jì)算負(fù)載,同時(shí)最大程度地減少與目標(biāo)平臺(tái)的通信。即使存在模型多樣性(計(jì)算和通信)和平臺(tái)多樣性(互連拓?fù)浜头謱訋挘琍ipeDream 也會(huì)有效地實(shí)現(xiàn)負(fù)載平衡。PipeDream 訓(xùn)練分布式的方法的原理比數(shù)據(jù)模型分布式方法具有多個(gè)優(yōu)點(diǎn)。

對(duì)于初學(xué)者而言,PipeDream 需要在工作程序節(jié)點(diǎn)之間進(jìn)行較少的通信,因?yàn)楣艿缊?zhí)行中的每個(gè)工作程序僅需要將漸變的子集和輸出激活信息傳達(dá)給單個(gè)其他工作程序。

圖片來(lái)源:

https://www.microsoft.com/zh-cn/research/uploads/prod/2019/08/fiddle_pipedream_sosp19.pdf

訓(xùn)練分布式是構(gòu)建更大、更準(zhǔn)確的深度學(xué)習(xí)模型的關(guān)鍵挑戰(zhàn)之一。分布式訓(xùn)練方法是深度學(xué)習(xí)社區(qū)中一個(gè)活躍的研究領(lǐng)域,需要將有效的并發(fā)編程技術(shù)與深度學(xué)習(xí)模型的本質(zhì)相結(jié)合。盡管仍處于早期階段,但 Google 的 GPipe 和 Microsoft 的 PipeDream 本身已經(jīng)是很優(yōu)秀的產(chǎn)品,它是深度學(xué)習(xí)開發(fā)人員可用的兩種最具創(chuàng)造性的分布式訓(xùn)練方法。
責(zé)任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6648

    瀏覽量

    105211
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6219

    瀏覽量

    107092
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4796

    瀏覽量

    102196
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用VirtualLab Fusion中分布式計(jì)算的AR波導(dǎo)測(cè)試圖像模擬

    總計(jì)算時(shí)間超過31小時(shí)。通過使用一個(gè)由8個(gè)多核PC組成的網(wǎng)絡(luò),提供35個(gè)客戶端分布式計(jì)算,將模擬時(shí)間減少到1小時(shí)5分鐘。基本模擬任務(wù)基本任務(wù)集合:FOV使用分布式計(jì)算的集合模擬概述模擬時(shí)間節(jié)省96%的計(jì)算時(shí)間!!!
    發(fā)表于 04-10 08:48

    分布式云化數(shù)據(jù)庫(kù)有哪些類型

    分布式云化數(shù)據(jù)庫(kù)有哪些類型?分布式云化數(shù)據(jù)庫(kù)主要類型包括:關(guān)系型分布式數(shù)據(jù)庫(kù)、非關(guān)系型分布式數(shù)據(jù)庫(kù)、新SQL分布式數(shù)據(jù)庫(kù)、以列方式存儲(chǔ)數(shù)據(jù)、
    的頭像 發(fā)表于 01-15 09:43 ?312次閱讀

    基于ptp的分布式系統(tǒng)設(shè)計(jì)

    在現(xiàn)代分布式系統(tǒng)中,精確的時(shí)間同步對(duì)于確保數(shù)據(jù)一致性、系統(tǒng)穩(wěn)定性和性能至關(guān)重要。PTP(Precision Time Protocol)是一種網(wǎng)絡(luò)協(xié)議,用于在分布式系統(tǒng)中實(shí)現(xiàn)高精度的時(shí)間同步
    的頭像 發(fā)表于 12-29 10:09 ?380次閱讀

    HarmonyOS Next 應(yīng)用元服務(wù)開發(fā)-分布式數(shù)據(jù)對(duì)象遷移數(shù)據(jù)權(quán)限與基礎(chǔ)數(shù)據(jù)

    使用分布式數(shù)據(jù)對(duì)象遷移數(shù)據(jù),當(dāng)需要遷移的數(shù)據(jù)較大(100KB以上)或需要遷移文件時(shí),可以使用分布式數(shù)據(jù)對(duì)象。原理與接口說(shuō)明詳見分布式數(shù)據(jù)對(duì)象跨設(shè)備數(shù)據(jù)同步。 說(shuō)明:自API 12起,由于直接使用跨
    發(fā)表于 12-24 09:40

    分布式通信的原理和實(shí)現(xiàn)高效分布式通信背后的技術(shù)NVLink的演進(jìn)

    大型模型的大小已經(jīng)超出了單個(gè) GPU 的范圍。所以就需要實(shí)現(xiàn)跨多個(gè) GPU 的模型訓(xùn)練,這種訓(xùn)練方式就涉及到了分布式通信和 NVLink。 當(dāng)談及分布式通信和 NVLink 時(shí),我們進(jìn)入了一個(gè)引人入勝且不斷演進(jìn)的技術(shù)領(lǐng)域,下面我們將簡(jiǎn)單介紹
    的頭像 發(fā)表于 11-18 09:39 ?980次閱讀
    <b class='flag-5'>分布式</b>通信的原理和實(shí)現(xiàn)高效<b class='flag-5'>分布式</b>通信背后的技術(shù)NVLink的演進(jìn)

    分布式光纖測(cè)溫解決方案

    分布式光纖測(cè)溫解決方案
    的頭像 發(fā)表于 11-12 01:02 ?397次閱讀
    <b class='flag-5'>分布式</b>光纖測(cè)溫解決方案

    淺談屋頂分布式光伏發(fā)電技術(shù)的設(shè)計(jì)與應(yīng)用

    【摘要】為了緩解城市用電緊張?jiān)档腿藗兊挠秒姵杀荆梢栽诠I(yè)園區(qū)、辦公樓屋頂?shù)葓?chǎng)所應(yīng)用屋頂分布式光伏發(fā)電技術(shù)進(jìn)行就近轉(zhuǎn)換、并網(wǎng)發(fā)電袁充分利用建筑物屋頂?shù)奶?yáng)資源。概述屋頂分布式光伏發(fā)電技術(shù),分析屋頂
    的頭像 發(fā)表于 11-11 15:10 ?1569次閱讀
    淺談屋頂<b class='flag-5'>分布式</b>光伏發(fā)電技術(shù)的設(shè)計(jì)與應(yīng)用

    分布式光纖測(cè)溫是什么?應(yīng)用領(lǐng)域是?

    分布式光纖測(cè)溫是一種先進(jìn)的溫度測(cè)量技術(shù),它利用光纖的拉曼散射原理進(jìn)行溫度監(jiān)測(cè)。以下是對(duì)分布式光纖測(cè)溫的詳細(xì)介紹: 一、基本原理 分布式光纖測(cè)溫的原理基于光纖的拉曼散射效應(yīng)。當(dāng)光纖某處的溫度發(fā)生變化
    的頭像 發(fā)表于 10-24 15:30 ?918次閱讀
    <b class='flag-5'>分布式</b>光纖測(cè)溫是什么?應(yīng)用領(lǐng)域是?

    分布式輸電線路故障定位中的分布式是指什么

    所謂分布式指的是產(chǎn)品的部署方式,是相對(duì)于集中式而言的。 一、部署方式 分散安裝:分布式輸電線路故障定位系統(tǒng)中的采集裝置需要安裝在輸電線路的多個(gè)位置,通常是每隔一定距離設(shè)置一個(gè)監(jiān)測(cè)點(diǎn),以確保對(duì)整條線路
    的頭像 發(fā)表于 10-16 11:39 ?542次閱讀
    <b class='flag-5'>分布式</b>輸電線路故障定位中的<b class='flag-5'>分布式</b>是指什么

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?895次閱讀

    EasyGo使用筆記丨分布式光伏集群并網(wǎng)控制硬件在環(huán)仿真應(yīng)用

    了該模型的仿真驗(yàn)證。最后,基于實(shí)時(shí)仿真器NetBox和DSP,構(gòu)建完整的硬件在環(huán)仿真平臺(tái)。分別對(duì)各算法進(jìn)行了測(cè)試,并與常規(guī)仿真方式下的效果進(jìn)行對(duì)比,驗(yàn)證分布式光伏集群并網(wǎng)控制硬件在環(huán)仿真平臺(tái)的可行性
    發(fā)表于 07-12 17:20

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過程中,深度
    的頭像 發(fā)表于 07-02 14:04 ?1382次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無(wú)疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來(lái)了革命性的變化。然而,盡管它們都屬于機(jī)器學(xué)習(xí)的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1988次閱讀

    微軟和日立達(dá)成價(jià)值數(shù)十億美元的戰(zhàn)略合作

    微軟和日本知名公司日立近日宣布了一項(xiàng)價(jià)值數(shù)十億美元的戰(zhàn)略合作計(jì)劃,旨在未來(lái)三年內(nèi)共同推動(dòng)生成人工智能服務(wù)的廣泛應(yīng)用。根據(jù)合作協(xié)議,日立將深度整合微軟云、Azure開放人工智能服務(wù)、D
    的頭像 發(fā)表于 06-06 09:47 ?684次閱讀

    分布式能源是什么意思?分布式能源有什么優(yōu)勢(shì)?

    分布式能源指的是在用戶端或靠近用戶端的小型能源供應(yīng)系統(tǒng),它能夠直接滿足用戶的多種能源需求,如電力、熱能和冷能。
    的頭像 發(fā)表于 04-29 17:26 ?2986次閱讀
    主站蜘蛛池模板: 午夜无码国产理论在线 | 国产免费高清福利拍拍拍 | 免费久久精品国产片香蕉 | 九九热精品国产 | 四虎在线最新永久免费播放 | 高清欧美日本视频免费观看 | 国精视频一区二区视频 | 天堂网在线观看 | 欧美激情第一欧美在线 | 中日韩一级片 | 午夜免费观看_视频在线观看 | 四虎影院黄色片 | 日日噜噜噜噜人人爽亚洲精品 | 男人女人的免费视频网站 | 国产伦精品一区二区三区免费 | 四虎欧美在线观看免费 | xxxx人妖| 免费在线观看一级毛片 | 久久好色 | 青娱乐伊人 | 天天操天天操天天操香蕉 | 国产一卡二卡3卡4卡四卡在线视频 | 亚洲影视久久 | 天天干天操 | 视频在线高清完整免费观看 | 伊人久久大香线蕉观看 | 亚洲天堂成人在线 | 国产伦精品一区二区三区在线观看 | 欧美一区二区三区在线观看 | 欧美精品网 | 国产小视频在线观看免费 | 亚洲成综合人影院在院播放 | 大色视频 | 天天撸夜夜操 | 国产国产成人人免费影院 | 美女牲交毛片一级视频 | 亚洲人成网站色7777 | 免费爱爱网站 | 在线观看三级网站 | 天堂在线网站 | 日本wwwxx |