在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

加法網(wǎng)絡(luò)再突破—NeurIPS 2020 Spotlight

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-08 22:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

華為諾亞方舟實驗室聯(lián)合悉尼大學發(fā)布論文《Kernel Based Progressive Distillation for Adder Neural Networks》,提出了針對加法神經(jīng)網(wǎng)絡(luò)的蒸餾技術(shù),ResNet-34和ResNet-50網(wǎng)絡(luò)在ImageNet上分別達到了68.8%和76.8%的準確率,效果與相同結(jié)構(gòu)的CNN相比持平或超越,該論文已被NeurIPS2020接收。

開源鏈接:
huawei-noah/AdderNet?github.com
論文鏈接:
https://arxiv.org/pdf/2009.13044.pdf?arxiv.org

研究背景

深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)被廣泛應用于諸多計算機視覺領(lǐng)域的實際任務(wù)中(例如,圖片分類、物體檢測、語義分割等)。然而,為了保證性能,神經(jīng)網(wǎng)絡(luò)通常是過參數(shù)化的,因此會存在大量的冗余參數(shù)。近期提出的加法神經(jīng)網(wǎng)絡(luò)(ANN),通過將卷積操作中的距離度量函數(shù)替換為L1距離,極大減少了神經(jīng)網(wǎng)絡(luò)中的乘法操作,從而減少了網(wǎng)絡(luò)運行所需的功耗和芯片面積。
然而,ANN在準確率方面和同結(jié)構(gòu)的CNN相比仍然有一定差距,在某種程度上限制了ANN在實際應用中對CNN的替換。為了提高ANN的性能,我們提出了一種基于核的漸進蒸餾方法。具體的,我們發(fā)現(xiàn)一個訓練好的ANN網(wǎng)絡(luò)其參數(shù)通常服從拉普拉斯分布,而一個訓練好的CNN網(wǎng)絡(luò)其參數(shù)通常服從高斯分布。因此,我們對網(wǎng)絡(luò)中間層的特征圖輸出進行核變換后,使用距離度量函數(shù)估計教師網(wǎng)絡(luò)(CNN)和學生網(wǎng)絡(luò)(ANN)之間的損失。對于最后一層,我們使用傳統(tǒng)的KL散度估計兩個網(wǎng)絡(luò)之間的損失。同時,在訓練中我們使用隨機初始化的教師網(wǎng)絡(luò),與學生網(wǎng)絡(luò)同時訓練,以減少兩個網(wǎng)絡(luò)之間參數(shù)分布的差異性。
實驗表明,我們的算法得到的ANN能夠在CIFAR-10,CIFAR-100,ImageNet等標準圖片分類數(shù)據(jù)集上達到或超越同結(jié)構(gòu)CNN的準確率。
對網(wǎng)絡(luò)中間層特征圖輸出進行核變換
ANN本身精度不好的原因是原始ANN在反向傳播時,使用的是近似的梯度,導致目標函數(shù)無法向著最小的方向移動。傳統(tǒng)KD方法應用到ANN上效果不佳的原因,在于ANN的權(quán)重分布是拉普拉斯分布,而CNN的權(quán)重分布為高斯分布,因此分布不同導致無法直接對中間層的feature map使用KD方法。本方法首先將核變換作用于教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)的中間層輸出,并使用1x1卷積對新的輸出進行配準。之后,結(jié)合最后一層的蒸餾損失與分類損失,得到整體的損失函數(shù)。

漸進式蒸餾算法
傳統(tǒng)的蒸餾方法使用固定的,訓練好的教師網(wǎng)絡(luò)來教學生網(wǎng)絡(luò)。這樣做會帶來問題。由于教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)處于不同的訓練階段,因此他們的分布會因為訓練階段的不同而不同,所以會導致KD方法效果不好。因此我們采用漸進式蒸餾方法,讓教師網(wǎng)絡(luò)和學生網(wǎng)絡(luò)共同學習,有助于KD方法得到好的結(jié)果。即目標函數(shù)變?yōu)椋?br />
其中b為當前的step。
實驗結(jié)果
我們在CIFAR-10、CIFAR-100、ImageNet三個數(shù)據(jù)集上分別進行了實驗。
下表是在CIFAR-10和CIFAR-100數(shù)據(jù)集上的結(jié)果,我們使用了VGG-small、ResNet-20與ResNet-32作為教師網(wǎng)絡(luò),同結(jié)構(gòu)的ANN作為學生網(wǎng)絡(luò)。可以看到,使用了本方法得到的ANN在分類準確率上相比原始的ANN有大幅度的提升,并且能夠超過同結(jié)構(gòu)的CNN模型。表格中#Mul表示網(wǎng)絡(luò)中乘法操作的次數(shù)。#Add表示加法操作次數(shù),#XNOR表示同或操作的次數(shù)。

下表展示了在ImageNet數(shù)據(jù)集上的結(jié)果,我們使用ResNet-18與ResNet-50網(wǎng)絡(luò)作為教師網(wǎng)絡(luò),同結(jié)構(gòu)的ANN作為學生網(wǎng)絡(luò)。結(jié)果顯示我們的方法得到的ANN在分類準確率上相比同結(jié)構(gòu)CNN基本相同或能夠超越。

最后,我們展示了ResNet-20,ANN-20與通過本方法得到的PKKD ANN-20模型在CIFAR-10與CIFAR-100數(shù)據(jù)集上的訓練精度曲線與測試精度曲線。

圖中的實線表示訓練精度,虛線表示測試精度。在兩個數(shù)據(jù)集中,CNN的訓練和測試準確率都超過了原始的ANN模型。這是因為在訓練原始ANN時,反向傳播的梯度使用的是L2 norm來近似,因此梯度方向是不準確的。當使用本方法后,CNN的訓練過程可以指導ANN的訓練,因此可以得到更好的結(jié)果。同時,知識蒸餾方法能夠幫助學生網(wǎng)絡(luò)防止過擬合,這也是我們的方法有最低的訓練精度和最高的測試精度的原因。



推薦閱讀



文章首發(fā)知乎,更多深度模型壓縮相關(guān)的文章請關(guān)注深度學習壓縮模型論文專欄

審核編輯:符乾江

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46735
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5559

    瀏覽量

    122729
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    DEKRA德凱在網(wǎng)絡(luò)安全測試與認證領(lǐng)域?qū)崿F(xiàn)新突破

    首家獲此資質(zhì)的測試實驗室,服務(wù)范圍涵蓋工業(yè)控制、智能制造、能源、汽車及消費類物聯(lián)網(wǎng)等多個高安全需求行業(yè)。這標志著德凱在網(wǎng)絡(luò)安全測試與認證領(lǐng)域?qū)崿F(xiàn)新突破,能夠為企業(yè)提供一站式、符合國際標準的網(wǎng)絡(luò)安全測試與認證服務(wù)。
    的頭像 發(fā)表于 06-09 17:45 ?541次閱讀

    openKylin社區(qū)會員突破1000家

    在開源技術(shù)驅(qū)動全球創(chuàng)新的時代浪潮中,OpenAtom openKylin(簡稱“openKylin”)開源操作系統(tǒng)社區(qū)迎重大里程碑——企業(yè)會員突破1000家。此次會員突破1000家,是社區(qū)發(fā)展
    的頭像 發(fā)表于 04-25 13:05 ?481次閱讀

    人造太陽升級!中國核聚變實現(xiàn)「雙億度」突破

    近日,我國核聚變領(lǐng)域再獲重大突破。中核集團核工業(yè)西南物理研究院宣布,新一代“人造太陽”裝置——中國環(huán)流三號首次實現(xiàn)了原子核溫度1.17億度、電子溫度1.6億度的“雙億度”突破,并大幅提升了綜合參數(shù)
    的頭像 發(fā)表于 04-18 11:29 ?561次閱讀
    人造太陽<b class='flag-5'>再</b>升級!中國核聚變實現(xiàn)「雙億度」<b class='flag-5'>突破</b>

    電機高效制造在企業(yè)生產(chǎn)中的應用

    高效制造在企業(yè)生產(chǎn)中的應用.pdf (免責聲明:本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!)
    發(fā)表于 04-07 17:31

    NVIDIA實現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?427次閱讀

    LMK1C1104DQF低加法、相位噪聲LVCMOS時鐘緩沖器評估板

    電子發(fā)燒友網(wǎng)站提供《LMK1C1104DQF低加法、相位噪聲LVCMOS時鐘緩沖器評估板.pdf》資料免費下載
    發(fā)表于 11-26 15:19 ?0次下載
    LMK1C1104DQF低<b class='flag-5'>加法</b>、相位噪聲LVCMOS時鐘緩沖器評估板

    螞蟻數(shù)科與浙大團隊榮獲NeurIPS競賽冠軍

    近日,在機器學習領(lǐng)域的頂級國際會議NeurIPS的特設(shè)競賽中,螞蟻數(shù)科旗下的摩斯聯(lián)合浙江大學計算機體系結(jié)構(gòu)實驗室陳文智、魏成坤團隊組成的“Morse ARCLab”參賽隊伍憑借出色的表現(xiàn),成功在激烈的競爭中脫穎而出,為中國AI技術(shù)的發(fā)展貢獻了重要力量。
    的頭像 發(fā)表于 11-26 10:27 ?851次閱讀

    TL494根據(jù)輸入電壓的大小,調(diào)節(jié)輸出PWM的占空比,通過后級的RC網(wǎng)絡(luò)還原信號,可行嗎?

    我目前在用紅外做無線通信,用MIC做音頻信號采集放大后,送給TL494。 TL494根據(jù)輸入電壓的大小,調(diào)節(jié)輸出PWM的占空比,通過后級的RC網(wǎng)絡(luò)還原信號。 請問有沒有什么參考電路什么的?或者說TL494能不能做這個應用
    發(fā)表于 11-01 08:17

    海外動態(tài)IP:突破地域限制,賦能數(shù)字時代

    海外動態(tài)IP作為一種強大的網(wǎng)絡(luò)工具,正在突破地域限制,賦能數(shù)字時代,為企業(yè)和個人提供網(wǎng)絡(luò)自由與便利。
    的頭像 發(fā)表于 11-01 05:55 ?538次閱讀

    LM258反向加法器輸出信號出現(xiàn)斷點怎么解決?

    LM258反向加法器輸出信號出現(xiàn)斷點的問題,求各位老師解答 電路圖如下: 采用正負5V供電 輸入輸出如下: 上面是輸出,下面是輸入。輸入兩個一樣的正弦信號,輸出信號出現(xiàn)斷點是怎么回事呢? 發(fā)現(xiàn)輸入大信號出現(xiàn)上述現(xiàn)象,小信號就沒有了
    發(fā)表于 09-20 06:49

    加法運放電路實驗報告數(shù)據(jù)分析

    加法運放電路實驗報告的數(shù)據(jù)分析主要包括對實驗結(jié)果的觀察、與理論值的對比以及誤差原因的分析。以下是一個基于常見加法運放電路實驗的數(shù)據(jù)分析示例: 一、實驗目的與原理 實驗目的 :了解加法器的模擬實現(xiàn)方法
    的頭像 發(fā)表于 09-03 10:03 ?1812次閱讀

    加法運放電路輸出電壓是多少

    負反饋配置下能夠非常精確地控制其輸出電壓。 加法運放電路的基本形式是將多個輸入信號通過電阻網(wǎng)絡(luò)連接到運算放大器的反相輸入端(通常也會有一個反饋電阻從輸出連接到反相輸入端以形成負反饋),而運算放大器的非反相輸入端則接地
    的頭像 發(fā)表于 09-03 09:50 ?1120次閱讀
    <b class='flag-5'>加法</b>運放電路輸出電壓是多少

    優(yōu)惠升級,華秋PCB首單最高立減100元,返2000元優(yōu)惠券

    優(yōu)惠升級,華秋PCB首單最高立減100元,返2000元優(yōu)惠券
    的頭像 發(fā)表于 08-30 12:06 ?722次閱讀
    優(yōu)惠<b class='flag-5'>再</b>升級,華秋PCB首單最高立減100元,<b class='flag-5'>再</b>返2000元優(yōu)惠券

    加法器是時序邏輯電路嗎

    加法器不是時序邏輯電路 ,而是組合邏輯電路的一種。時序邏輯電路和組合邏輯電路的主要區(qū)別在于它們?nèi)绾翁幚磔敵鲂盘枴?組合邏輯電路的輸出僅依賴于當前的輸入信號,而不依賴于電路之前的狀態(tài)或輸入歷史。這
    的頭像 發(fā)表于 08-28 11:05 ?1437次閱讀

    殘差網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨特的結(jié)構(gòu)設(shè)計在解決深層網(wǎng)絡(luò)訓練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
    的頭像 發(fā)表于 07-11 18:13 ?1594次閱讀
    主站蜘蛛池模板: 日韩欧美中文字幕在线播放 | 亚洲啪啪 | 婷婷色在线 | 中文字幕日韩三级 | 三级视频在线播放线观看 | 全国男人天堂网 | 四虎在线永久免费观看 | 怡红院日本一道日本久久 | 日本xxxx色视频在线观看免费 | 国产香蕉免费精品视频 | 欧美三级黄 | 在线观看视频你懂得 | 97久久人人 | 不卡视频一区二区 | 四虎在线最新永久免费 | 日本精品视频四虎在线观看 | 久久riav二区三区 | 在线天堂中文新版www | 国内精品免费视频精选在线观看 | 国产亚洲综合精品一区二区三区 | 天天做天天添婷婷我也去 | 亚洲人色大成年网站在线观看 | 人人人人干 | 亚洲国产成+人+综合 | 男人天堂网在线播放 | 午夜神马福利 | 日本三级视频在线播放 | 免费三级毛片 | 韩国黄色三级视频 | 天天干天天要 | 国产成人高清 | 四虎国产精品永久免费网址 | 国产亚洲精品在天天在线麻豆 | 天天综合在线观看 | 日韩一级在线播放免费观看 | 色多多·com| 午夜免费理论片在线看 | 黄色网址网站在线观看 | 深爱五月激情五月 | 午夜嘿嘿嘿 | 中文字幕v视界影院 |