在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

離散化架構(gòu)WAGE,訓(xùn)練推理合二為一

DPVg_AI_era ? 來源:未知 ? 作者:胡薇 ? 2018-05-20 11:11 ? 次閱讀

圖 1 吳雙(左側(cè))和李國齊(右側(cè))- 被錄用文章的兩位作者

清華大學(xué)類腦計算研究中心博士生吳雙的論文被 ICLR2018 收錄并在會上做口頭報告。迄今為止,這是中國作為第一署名單位里唯一一篇被 ICLR 會議收錄的口頭報告文章。該報告主要探討如何實現(xiàn)對全離散化深度神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練和推理,便于部署到嵌入式設(shè)備中。

ICLR 是深度學(xué)習(xí)領(lǐng)域的頂會,更被譽為深度學(xué)習(xí)的“無冕之王”,得到了 google, Facebook, DeepMind, Amazon,IBM 等眾多高科技公司的高度關(guān)注和參與。ICLR2018 于當(dāng)?shù)貢r間 2018 年 4 月 30 日在加拿大溫哥華會展中心召開,為期 4 天。本次大會的主席是深度學(xué)習(xí)領(lǐng)域三巨頭中的 Yoshua Bengio(蒙特利爾大學(xué))和 Yann LeCun (紐約大學(xué) & Facebook),本次大會收到一千多篇投稿文章,其中僅有 23 篇被收錄為本次會議的口頭報告文章。

吳雙同學(xué)的報告題目為 “Training and Inference with Integers in Deep Neural Networks”。

離散化架構(gòu) WAGE,訓(xùn)練推理合二為一

該報告主要探討如何實現(xiàn)對全離散化深度神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練和推理,便于部署到嵌入式設(shè)備中。

在深度學(xué)習(xí)領(lǐng)域,高精度意味著大面積、高功耗,從而導(dǎo)致高成本,這背離了嵌入式設(shè)備的需求,因此硬件加速器和神經(jīng)形態(tài)芯片往往采用低精度的硬件實現(xiàn)方式。在低精度的算法研究方面,之前的工作主要集中在對前向推理網(wǎng)絡(luò)的權(quán)重值和激活值的縮減,使之可以部署在硬件加速器和神經(jīng)形態(tài)芯片上;而網(wǎng)絡(luò)的訓(xùn)練還是借助于高精度浮點實現(xiàn)(GPU)。這種訓(xùn)練和推理的分離模式往往導(dǎo)致需要耗費大量的額外精力,對訓(xùn)練好的浮點網(wǎng)絡(luò)進行低精度轉(zhuǎn)換,這不僅嚴重影響了神經(jīng)網(wǎng)絡(luò)的應(yīng)用部署,更限制了在應(yīng)用端的在線改善。

為應(yīng)對這種情況,本文提出了一種聯(lián)合的離散化架構(gòu) WAGE,首次實現(xiàn)了將離散化神經(jīng)網(wǎng)絡(luò)的反向訓(xùn)練過程和前向推理合二為一。具體來說就是將網(wǎng)絡(luò)權(quán)重、激活值、反向誤差、權(quán)重梯度用全用低精度整形數(shù)表達,在網(wǎng)絡(luò)訓(xùn)練時去掉難以量化的操作及操作數(shù)(比如批歸一化等),從而實現(xiàn)整個訓(xùn)練流程全部用整數(shù)完成。

在數(shù)據(jù)集實測中,WAGE 的離散化方法能夠有效的提高測試精度。由于該方法能夠同時滿足深度學(xué)習(xí)加速器和神經(jīng)形態(tài)芯片的低功耗和反向訓(xùn)練需求,更使之具備高效地在線學(xué)習(xí)的能力,對未來多場景、多目標(biāo)的可遷移、可持續(xù)學(xué)習(xí)的人工智能應(yīng)用將大有裨益。

WAGE框架將訓(xùn)練和推理中的所有層中的權(quán)重( weights ,W),激活值( activations ,A),梯度( gradients ,G)和誤差( errors ,E)限制為低位整數(shù)。首先,對于操作數(shù),應(yīng)用線性映射和方向保持移位來實現(xiàn)三元權(quán)重,用于激活和梯度累加的8位整數(shù)。其次,對于操作,批歸一化由一個常數(shù)因子取代。用于微調(diào)的其他技術(shù)(如具有動量和L2正則化的SGD優(yōu)化器)可以簡化或放棄,性能的下降很小。考慮到整體雙向傳播,我們完全簡化了累積比較周期的推理,并分別訓(xùn)練到具有對齊操作的低位乘法累加(MAC)周期。

所提出的框架在MNIST,CIFAR10,SVHN,ImageNet數(shù)據(jù)集上進行評估。相對于只在推理時離散權(quán)重和激活的框架,WAGE具有可比的準(zhǔn)確性,并且可以進一步減輕過擬合。WAGE為DNN生成純粹的雙向低精度整數(shù)數(shù)據(jù)流,可以將其用于專門硬件的訓(xùn)練和推理。我們在GitHub上發(fā)布了代碼。

圖1

圖2:WAGE的量化方法

實現(xiàn)細節(jié)

MNIST:采用LeNet-5的一個變體。WAGE中的學(xué)習(xí)率η在整個100個epochs中保持為1。我們報告了測試集上10次運行的平均準(zhǔn)確度。

SVHN&CIFAR10:錯誤率的評估方式與MNIST相同。

ImageNet:使用AlexNe模型在ILSVRC12數(shù)據(jù)集上評估WAGE框架。

表1:WAGE及其他方法在多個數(shù)據(jù)集上的測試或驗證錯誤率(%)

圖3:訓(xùn)練曲線

結(jié)論和未來工作

這項工作的目標(biāo)是展示在DNN中應(yīng)用低位整數(shù)訓(xùn)練和推理的潛力。與FP16相比,8-bit整數(shù)運算不僅會降低IC設(shè)計的能耗和面積成本(約5倍,見Table 5),還會減少訓(xùn)練期間內(nèi)存訪問成本和內(nèi)存大小要求,這將大大有利于具有現(xiàn)場學(xué)習(xí)能力的的移動設(shè)備。這個工作中有一些沒有涉及到的點,未來的算法開發(fā)和硬件部署還有待改進或解決。

表5

WAGE使DNN的純低位整數(shù)數(shù)據(jù)流進行訓(xùn)練和推理得以實現(xiàn)。我們引入一種新的初始化方法和分層常數(shù)比例因子來取代批歸一化,這是網(wǎng)絡(luò)量化的一個難點。此外,還探討了誤差計算和梯度累積的位寬要求。實驗表明,我們可以量化梯度的相對值,并且在反向傳播中丟棄大多數(shù)小值及其數(shù)量級。雖然為了穩(wěn)定收斂和最終的精度,權(quán)重更新的積累是必不可少的,但仍然可以在訓(xùn)練中進一步減少壓縮和內(nèi)存消耗。WAGE在多個數(shù)據(jù)集實現(xiàn)了最高精度。通過微調(diào)、更有效的映射、批歸一化等量化方法,對增量工作有一定的應(yīng)用前景。總而言之,我們提出了一個沒有浮點表示的框架,并展示了在基于整數(shù)的輕量級ASIC或具有現(xiàn)場學(xué)習(xí)能力的FPGA上實現(xiàn)離散訓(xùn)練和推理的潛力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4811

    瀏覽量

    103039
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4921

    瀏覽量

    130812

原文標(biāo)題:ICLR oral:清華提出離散化架構(gòu)WAGE,神經(jīng)網(wǎng)絡(luò)訓(xùn)練推理合二為一

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    機器學(xué)習(xí)的第階段:推理

    我們之前討論過,訓(xùn)練過程是機器學(xué)習(xí)的第階段,而推理則緊隨其后,機器學(xué)習(xí)的第階段。在訓(xùn)練階段
    發(fā)表于 06-28 16:03 ?6259次閱讀

    步解讀英偉達 Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    性能,加速模型的訓(xùn)練推理過程。 2. 生成式 AI 解決方案 與英偉達 Grace CPU、新代網(wǎng)絡(luò)芯片等產(chǎn)品起,面向生成式 AI 共同組成完整解決方案,
    發(fā)表于 05-13 17:16

    YOLOv5類中rgb888p_size這個參數(shù)要與模型推理訓(xùn)練的尺寸致嗎?致會達到更好的效果?

    YOLOv5類中rgb888p_size這個參數(shù)要與模型推理訓(xùn)練的尺寸致嗎,致會達到更好的效果
    發(fā)表于 03-11 08:12

    如何把兩個電路合二為一?

    大家好求助 本人做了兩個arduino回路。 word 里面,左邊的是控制電機左右轉(zhuǎn)動的。右邊是通過滑動變阻器控制電機轉(zhuǎn)速的。 想把兩個電路合二為一。 程序上的編寫 請給位給予建議
    發(fā)表于 08-23 05:55

    模擬技術(shù)與數(shù)字技術(shù)怎樣才能合二為一 電子資料

    模擬技術(shù)與數(shù)字技術(shù)怎樣才能合二為一,還是數(shù)字技術(shù)替代模擬技術(shù)?作為般應(yīng)用的話,的確可以區(qū)分開模擬和數(shù)字系統(tǒng)。但是在尖端領(lǐng)域,你很難區(qū)分他們的。比如,高速數(shù)字電路板要考慮的敷銅阻抗和信號反射問題。
    發(fā)表于 04-21 06:14

    如何用PyArmNN加速樹莓派上的ML推理

    NN推理引擎構(gòu)建個示例應(yīng)用程序,將圖像分類火或非火。 本指南使用Raspberry Pi 3或4設(shè)備。樹莓派設(shè)備是由Arm CPU驅(qū)動的 霓虹燈的架構(gòu)。Neon是針對Arm處理器
    發(fā)表于 08-02 15:40

    Android和iPhone完美融合,魯大師發(fā)布魯?shù)皵?shù)據(jù)線將接口合二為一

    日前,魯大師智能硬件推出了款魯?shù)皵?shù)據(jù)線,號稱真正做到了蘋果lightning和安卓Micro接口合二為一。
    發(fā)表于 12-06 10:52 ?1540次閱讀

    天貓精靈Queen發(fā)布 款美妝鏡和AI智能音箱合二為一的新產(chǎn)品

    3月4日下午,天貓精靈官方微博宣布,正式推出新品天貓精靈Queen。從這樣的命名不難看出,天貓精靈Queen是款面對女性消費者推出的產(chǎn)品,其將女孩子日常接觸的美妝鏡和AI智能音箱合二為一,在產(chǎn)品的創(chuàng)意上確實是別出心裁。
    發(fā)表于 03-05 16:42 ?1677次閱讀

    高通發(fā)布Wi-Fi或?qū)?G和Wi-Fi合二為一?

    高通發(fā)布多款Wi-Fi 6芯片,5G和Wi-Fi將合二為一
    的頭像 發(fā)表于 08-28 08:59 ?3856次閱讀

    汽車的電動與智能正在合二為一 電動車的下波“進化”會在哪?

    汽車的電動與智能正在合二為一,電動的普及需要靠智能來拉動,而智能的最佳載體正是電動
    的頭像 發(fā)表于 06-13 14:59 ?1180次閱讀

    離散與分布式:改變軍事訓(xùn)練和模擬系統(tǒng)

      增強現(xiàn)實和虛擬現(xiàn)實(AR/VR)等進步正在重新定義在日益多樣的軍事訓(xùn)練場景中對質(zhì)量和性能的期望。這些改進還表明,隨著系統(tǒng)工程師代“培訓(xùn)即服務(wù)”做準(zhǔn)備,系統(tǒng)設(shè)計策略需要改變哲
    的頭像 發(fā)表于 11-11 15:07 ?895次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架是個非常重要的技術(shù),它們能夠加速深度學(xué)習(xí)的開發(fā)與部署過程。在深度學(xué)習(xí)中,我們通常需要進行兩個關(guān)鍵的任務(wù),即訓(xùn)練
    的頭像 發(fā)表于 08-17 16:03 ?1682次閱讀

    提升銷量,理想汽車或?qū)⒘闶酆徒桓恫?b class='flag-5'>合二為一

    據(jù)了解,自4月份以來,理想汽車已經(jīng)啟動了2.0版本的矩陣式組織結(jié)構(gòu)升級,對部分部門進行了結(jié)構(gòu)性調(diào)整。其中項重要改變就是將零售與交付部門合二為一,進步細化分工,其目的無疑是增加銷量。
    的頭像 發(fā)表于 06-04 14:21 ?759次閱讀

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek在開源周開源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動,但目前尚未開源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?876次閱讀

    陣列云從訓(xùn)練推理

    在云場景下,陣列云(分布式計算集群)從模型訓(xùn)練推理的完整技術(shù)流程可結(jié)構(gòu)化分解如下: 訓(xùn)練階段技術(shù)實現(xiàn) 1,資源動態(tài)編排? 基于Kubernetes集群或云廠商彈性計算服務(wù)(如AW
    的頭像 發(fā)表于 03-28 08:32 ?288次閱讀
    主站蜘蛛池模板: 九九国产精品 | 7m凹凸精品分类大全免费 | 人人插人人艹 | 性xxxfreexxxx性欧美 | 香蕉色综合| 色婷婷六月丁香在线观看 | 永久精品免费影院在线观看网站 | 亚洲成在人天堂一区二区 | 欧美性色xo影院在线观看 | 操女人免费视频 | 日本亚洲欧美国产日韩ay高清 | 九七婷婷狠狠成人免费视频 | 深爱婷婷激情网 | 国产精品一区电影 | 婷婷资源综合 | 国语自产自拍秒拍在线视频 | 女人被两根一起进3p在线观看 | 日本色图视频 | 日本 韩国 三级 国产 欧美 | 1314亚洲人成网站在线观看 | 欧美日韩a级a | 永久免费视频网站在线观看 | 一级爱片| 四虎现在的网址入口 | 免费播放欧美毛片欧美aaaaa | 丁香婷婷开心激情深爱五月 | 欧美视频小说 | 三级视频在线播放线观看 | 国产老肥熟xxxx | 久久香蕉国产线看观看亚洲片 | 国产美女视频一区二区二三区 | 特级做a爰片毛片免费看一区 | 欧美乱论视频 | 亚洲一区视频在线 | 免费黄色毛片 | 成人观看天堂在线影片 | 午夜视频网站在线观看 | 美女张开大腿让男人桶 | 欧美成人午夜片一一在线观看 | 国产精品电影一区 | 色香欲亚洲天天综合网 |