在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Uber一個(gè)跨多臺(tái)機(jī)器的分布式深度學(xué)習(xí)訓(xùn)練框架引入開源項(xiàng)目LF深度學(xué)習(xí)基金會(huì)

高工智能汽車 ? 來(lái)源:lq ? 2018-12-19 15:50 ? 次閱讀

世界頂尖科技公司工程師常常發(fā)現(xiàn),為了滿足公司的獨(dú)特需求,他們不得不為現(xiàn)有軟件基礎(chǔ)上開發(fā)定制替代方案。

近日,Uber將自己的Horovod(一個(gè)跨多臺(tái)機(jī)器的分布式深度學(xué)習(xí)訓(xùn)練框架)引入開源項(xiàng)目LF深度學(xué)習(xí)基金會(huì)。Uber利用Horovod支持自動(dòng)駕駛汽車、欺詐檢測(cè)和出行預(yù)測(cè),該項(xiàng)目的貢獻(xiàn)者包括Amazon、IBM、Intel和Nvidia。

Horovod是一個(gè)分布式的TensorFlow訓(xùn)練框架,目標(biāo)是使分布式深度學(xué)習(xí)快速且易于使用。在Uber內(nèi)部,他們發(fā)現(xiàn)MPI模型比帶參數(shù)服務(wù)器的分布式TensorFlow簡(jiǎn)單得多,所需的代碼更改也少得多。

除了Uber,阿里巴巴、亞馬遜和Nvidia也在使用Horovod。Horovod項(xiàng)目可以與TensorFlow、Keras和PyTorch等流行框架一起使用。

Uber上個(gè)月加入了Linux基金會(huì),并加入了AT&T和諾基亞等其他科技公司的行列,支持LF深度學(xué)習(xí)基金會(huì)的開源項(xiàng)目。LF深度學(xué)習(xí)基金會(huì)成立于3月,旨在支持針對(duì)深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的開源項(xiàng)目,是Linux基金會(huì)的一部分。

自該基金會(huì)成立以來(lái),其他項(xiàng)目還包括機(jī)器學(xué)習(xí)平臺(tái)Angel和彈性深度學(xué)習(xí)(Elastic Deep learning),這是一個(gè)幫助云服務(wù)提供商利用TensorFlow等框架制作云集群服務(wù)的項(xiàng)目。

根據(jù)Uber的說(shuō)法,Horovod讓開發(fā)人員只需幾行代碼就可以完成任務(wù)。這不僅加快了初始修改過(guò)程,而且進(jìn)一步簡(jiǎn)化了調(diào)試。考慮到深度學(xué)習(xí)項(xiàng)目的高度迭代性,這同樣可以節(jié)省大量時(shí)間。

在過(guò)去的幾年里,深度學(xué)習(xí)的進(jìn)步推動(dòng)了圖像處理、語(yǔ)音識(shí)別和預(yù)測(cè)的巨大進(jìn)步。在Uber,深度學(xué)習(xí)應(yīng)用于整個(gè)業(yè)務(wù),從自動(dòng)駕駛研究到出行預(yù)測(cè)和欺詐預(yù)防,并為用戶創(chuàng)造更好的體驗(yàn)。

由于種種原因,TensorFlow已經(jīng)成為Uber首選的深度學(xué)習(xí)庫(kù)。首先,該框架是用于深度學(xué)習(xí)的最廣泛使用的開源框架之一,這使得新用戶很容易上手。

它還結(jié)合了高性能和修補(bǔ)低級(jí)模型細(xì)節(jié)的能力——例如,可以同時(shí)使用高級(jí)api,如Keras,并使用NVIDIA的CUDA工具包實(shí)現(xiàn)自己的自定義操作符。

此外,TensorFlow還支持各種深度學(xué)習(xí)用例的端到端支持,從進(jìn)行探索性研究到將模型部署到云服務(wù)器、移動(dòng)應(yīng)用程序甚至自動(dòng)駕駛汽車上。

去年,Uber Engineering推出了米開朗基羅(Michelangelo),這是一個(gè)內(nèi)部的“mvc即服務(wù)”(mvc -as-a-service)平臺(tái),它讓機(jī)器學(xué)習(xí)自主化,讓大規(guī)模構(gòu)建和部署這些系統(tǒng)變得容易。

Horovod正是這個(gè)米開朗基羅復(fù)雜平臺(tái)的組成部分,Uber開發(fā)這個(gè)平臺(tái)是為了為其內(nèi)部的深度學(xué)習(xí)努力奠定基礎(chǔ)。該公司將該軟件描述為管理AI開發(fā)生命周期各個(gè)方面的端到端系統(tǒng)。

鑒于Uber此次宣布開放Horovod,它可能還會(huì)隨著時(shí)間的推移發(fā)布米開朗基羅其他組件的代碼。

Horovod的出現(xiàn),也反應(yīng)不同企業(yè)在縱深涉及深度學(xué)習(xí)時(shí)遇到了不少問(wèn)題。

隨著Uber使用越來(lái)越多的機(jī)器學(xué)習(xí)模型,它們的規(guī)模和數(shù)據(jù)消耗顯著增長(zhǎng)。在大多數(shù)情況下,模型仍然足夠小,可以容納一個(gè)服務(wù)器中的一個(gè)或多個(gè)GPU,但是隨著數(shù)據(jù)集的增長(zhǎng),訓(xùn)練時(shí)間也在增加,有時(shí)需要一周甚至更長(zhǎng)時(shí)間。

此后,Uber轉(zhuǎn)向了分布式深度學(xué)習(xí)訓(xùn)練。標(biāo)準(zhǔn)的分布式TensorFlow包引入了許多新概念:workers、參數(shù)服務(wù)器、tf.Server()、tf.ClusterSpec()、tf.train. syncreasoptimizer()和tf.train.replicas_device_setter()等等。雖然對(duì)某些場(chǎng)景有益,但這也引入了難以診斷的bug,從而減慢了訓(xùn)練速度。

第二個(gè)問(wèn)題是關(guān)于Uber規(guī)模計(jì)算的挑戰(zhàn)。在運(yùn)行了一些基準(zhǔn)測(cè)試之后,他們發(fā)現(xiàn)不能使標(biāo)準(zhǔn)的分布式TensorFlow按比例擴(kuò)展,以及需要的服務(wù)。例如,在128個(gè)GPU上進(jìn)行訓(xùn)練時(shí),由于效率低下,損失了大約一半的資源。

當(dāng)Uber在128個(gè)NVIDIA Pascal GPU上運(yùn)行標(biāo)準(zhǔn)的TensorFlow基準(zhǔn)測(cè)試套件時(shí),他們發(fā)現(xiàn)Inception V3和ResNet-101模型都無(wú)法利用將近一半的GPU資源。

標(biāo)準(zhǔn)的分布式TensorFlow包使用參數(shù)服務(wù)器方法來(lái)平均梯度。在這種方法中,每個(gè)流程都有兩個(gè)潛在角色之一:Worker或參數(shù)服務(wù)器。Worker用于處理訓(xùn)練數(shù)據(jù),計(jì)算梯度,并將它們發(fā)送到參數(shù)服務(wù)器進(jìn)行平均。

Uber認(rèn)為,雖然這種方法提高了性能,但遇到了兩個(gè)挑戰(zhàn):確定Worker與參數(shù)服務(wù)器的正確比例。

如果使用一個(gè)參數(shù)服務(wù)器,它可能會(huì)成為網(wǎng)絡(luò)或計(jì)算瓶頸。如果使用多個(gè)參數(shù)服務(wù)器,通信模式將變成“all-to-all”,這可能會(huì)使網(wǎng)絡(luò)互連飽和。

處理增加TensorFlow程序復(fù)雜性:在測(cè)試中,每個(gè)用戶的分布式TensorFlow必須顯式啟動(dòng)每個(gè)Worker和參數(shù)服務(wù)器,通過(guò)服務(wù)發(fā)現(xiàn)周圍信息,如所有的Worker和參數(shù)服務(wù)器的主機(jī)和端口,并修改培訓(xùn)計(jì)劃構(gòu)建tf.Server()和一個(gè)適當(dāng)?shù)膖f.ClusterSpec()。

此外,用戶必須確保使用tf.train.device_replica_setter()適當(dāng)?shù)胤胖盟胁僮鳎⑿薷拇a以使用towers來(lái)利用服務(wù)器中的多個(gè)GPU。這通常會(huì)導(dǎo)致陡峭的學(xué)習(xí)曲線和大量的代碼重構(gòu),從而占用實(shí)際建模的時(shí)間。

2017年初,百度發(fā)表了一篇文章《將HPC技術(shù)深度學(xué)習(xí)》,涉及到不同的算法平均梯度和溝通這些梯度(上面的第2步和第3步),該算法基于Patarasuk和Yuan在2009年的論文《工作站集群帶寬最優(yōu)全約算法》中引入的方法。

在環(huán)約簡(jiǎn)算法中,每個(gè)N個(gè)節(jié)點(diǎn)與兩個(gè)節(jié)點(diǎn)通信2*(N-1)次。在此通信過(guò)程中,節(jié)點(diǎn)發(fā)送和接收數(shù)據(jù)緩沖區(qū)的塊。在前N-1次迭代中,接收到的值被添加到節(jié)點(diǎn)緩沖區(qū)的值中。在第二次N-1迭代中,接收到的值替換節(jié)點(diǎn)緩沖區(qū)中保存的值。

百度的論文認(rèn)為,該算法是帶寬最優(yōu)的,這意味著如果緩沖區(qū)足夠大,它將最優(yōu)地利用可用網(wǎng)絡(luò)。

Uber也意識(shí)到,采用環(huán)減少(ring-allreduce)方法可以提高可用性和性能,這促使我們自己開發(fā)實(shí)現(xiàn),以滿足Uber的TensorFlow需求。隨后,Uber采用了百度的TensorFlow ring-allreduce算法,并在此基礎(chǔ)上進(jìn)行了構(gòu)建。

Uber將代碼轉(zhuǎn)換為一個(gè)名為Horovod的獨(dú)立Python包,這個(gè)包是以俄羅斯傳統(tǒng)的民間舞蹈命名的,在這種舞蹈中,表演者挽著手臂繞圈跳舞,就像分布式TensorFlow進(jìn)程使用Horovod彼此通信一樣。

Uber目前的不同團(tuán)隊(duì)都可能使用不同版本的TensorFlow,但他們希望所有團(tuán)隊(duì)都能夠利用ring-allreduce算法,而不需要升級(jí)到TensorFlow的最新版本,對(duì)自己的版本應(yīng)用補(bǔ)丁,甚至不需要花時(shí)間構(gòu)建框架。

有了一個(gè)獨(dú)立的包,Uber表示就可以根據(jù)硬件的不同,將安裝Horovod所需的時(shí)間從大約1小時(shí)縮短到幾分鐘。Horovod在Inception V3和ResNet-101中都達(dá)到了90%的縮放效率,在VGG-16中達(dá)到了79%的縮放效率。

此外,Uber用NCCL替換了百度ring-allreduce實(shí)現(xiàn),NCCL是NVIDIA的集合通信庫(kù),它提供了高度優(yōu)化的ring-allreduce版本。NCCL 2引入了跨多臺(tái)機(jī)器運(yùn)行ring-allreduce的能力,能夠利用它的許多性能提升優(yōu)化。

Uber還在此基礎(chǔ)上增加了對(duì)適合單個(gè)服務(wù)器模型的支持,可能是在多個(gè)GPU上,而原來(lái)的版本只支持適合單個(gè)GPU的模型。

Horovod項(xiàng)目負(fù)責(zé)人亞歷克斯?瑟蓋夫(Alex Sergeev)表示,Horovod是為了讓各行各業(yè)的人工智能研究人員能夠更快、更直觀地進(jìn)行深度學(xué)習(xí)模型訓(xùn)練。后續(xù)隨著Horovod在功能和應(yīng)用方面的不斷成熟,加入LF將使我們能夠進(jìn)一步擴(kuò)大它在開源生態(tài)系統(tǒng)中的影響。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像處理
    +關(guān)注

    關(guān)注

    27

    文章

    1300

    瀏覽量

    56894
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    785

    文章

    13932

    瀏覽量

    167010
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5515

    瀏覽量

    121553

原文標(biāo)題:Horovod ? Tensor flow ? Uber開源分布式深度學(xué)習(xí)模型 | GGAI海外

文章出處:【微信號(hào):ilove-ev,微信公眾號(hào):高工智能汽車】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    開放原子開源基金會(huì)新增捐贈(zèng)人

    2024年12月,新增以下單位成為開放原子開源基金會(huì)及旗下項(xiàng)目捐贈(zèng)人。
    的頭像 發(fā)表于 01-15 10:38 ?179次閱讀

    開放原子開源基金會(huì)與三個(gè)開源項(xiàng)目舉行捐贈(zèng)簽約儀式

    近日,在2024開放原子開發(fā)者大會(huì)暨首屆開源技術(shù)學(xué)術(shù)大會(huì)開幕上,開放原子開源基金會(huì)秘書長(zhǎng)助理李博與openKylin、EasyAda、KWDB開源
    的頭像 發(fā)表于 12-23 11:29 ?321次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練
    的頭像 發(fā)表于 10-28 14:05 ?275次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>訓(xùn)練</b>的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程。 二、自然語(yǔ)言處理 自然語(yǔ)言處理(NLP)是
    的頭像 發(fā)表于 10-27 11:13 ?508次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的個(gè)熱門研究方向。以下是些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?357次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :
    的頭像 發(fā)表于 10-23 15:25 ?1278次閱讀

    迅龍軟件OrangePi?5 Plus順利通過(guò)開放原子開源基金會(huì)XTS認(rèn)證

    公益事業(yè)的非營(yíng)利性獨(dú)立法人機(jī)構(gòu),是我國(guó)在開源領(lǐng)域的首個(gè)基金會(huì)。OpenHarmony是由開放原子開源基金會(huì)孵化及運(yùn)營(yíng)的開源
    的頭像 發(fā)表于 09-09 15:36 ?633次閱讀
    迅龍軟件OrangePi?5 Plus順利通過(guò)開放原子<b class='flag-5'>開源</b><b class='flag-5'>基金會(huì)</b>XTS認(rèn)證

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?686次閱讀

    深度學(xué)習(xí)算法在嵌入平臺(tái)上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入平臺(tái)上,仍然是
    的頭像 發(fā)表于 07-15 10:03 ?1698次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的個(gè)重要分支,近年來(lái)在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識(shí)別、語(yǔ)音
    的頭像 發(fā)表于 07-09 10:50 ?948次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度
    的頭像 發(fā)表于 07-02 14:04 ?1075次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練
    的頭像 發(fā)表于 07-01 16:13 ?1504次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無(wú)疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來(lái)了革命性的變化。然而,盡管它們都屬于
    的頭像 發(fā)表于 07-01 11:40 ?1540次閱讀

    迅龍軟件加入開放原子開源基金會(huì)和OpenHarmony?項(xiàng)目,共建開源新生態(tài)

    近日,迅龍軟件與“開放原子開源基金會(huì)”簽署協(xié)議,加入“開放原子開源基金會(huì)”(以下簡(jiǎn)稱“開源基金會(huì)
    的頭像 發(fā)表于 04-30 17:50 ?1107次閱讀
    迅龍軟件加入開放原子<b class='flag-5'>開源</b><b class='flag-5'>基金會(huì)</b>和OpenHarmony?<b class='flag-5'>項(xiàng)目</b>,共建<b class='flag-5'>開源</b>新生態(tài)

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

    上漲,因?yàn)槭聦?shí)表明,它們的 GPU 在訓(xùn)練和運(yùn)行 深度學(xué)習(xí)模型 方面效果明顯。實(shí)際上,英偉達(dá)也已經(jīng)對(duì)自己的業(yè)務(wù)進(jìn)行了轉(zhuǎn)型,之前它是家純粹做 GPU 和游戲的公司,現(xiàn)在除了作為
    發(fā)表于 03-21 15:19
    主站蜘蛛池模板: 色婷婷成人 | 久久国产福利 | 521色香蕉网在线观看免费 | 午夜 福利| 免费视频不卡一区二区三区 | 亚洲第一视频区 | 中国一级特黄视频 | 四虎国产精品永久在线网址 | 亚洲成人综合网站 | h网站在线看 | 色777777女人色 | 免费午夜不卡毛片 | 国产99在线播放免费 | 免费又黄又硬又大爽日本 | 免费观看黄色在线视频 | 91寡妇天天综合久久影院 | 日不卡 | 欧美性精品videofree | 婷婷六月丁香午夜爱爱 | 模特视频一二三区 | 一级黄色片a | 亚洲色图 欧美 | 日韩在线一区视频 | 午夜精品福利在线观看 | 美女露出尿口让男人桶爽网站 | 欧美肉到失禁高h视频在线 欧美三级成人 | 在线播放真实国产乱子伦 | 色多多拼多多网站 | 久久电影福利 | 一区二区高清在线观看 | 日日操夜夜操天天操 | 午夜视频一区二区 | 国产啊v在线观看 | 天天天天天操 | 天堂社区在线视频 | bl 高h文| 大黄香蕉| 亚洲欧美视频一区二区三区 | 77se77亚洲欧美在线大屁股 | 中国一级特黄视频 | 午夜免费福利片观看 |