在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文解析網(wǎng)絡壓縮算法的原理實現(xiàn)及結(jié)果

454398 ? 來源:AI加速微信公眾號 ? 作者:AI加速微信公眾號 ? 2020-11-14 10:51 ? 次閱讀

引言

網(wǎng)絡壓縮在AI加速中可以說起到“四兩撥千斤”的作用,網(wǎng)絡參數(shù)的減小不僅僅降低了存儲和帶寬,而且使計算邏輯簡單,降低了LUT資源。從本篇開始,我們就一起挖掘一下網(wǎng)絡壓縮算法的類型,原理,實現(xiàn),以及效果。寫這類算法類文章,一是學習,二是希望能夠令更多做FPGA的人,不再將眼光局限于RTL,仿真,調(diào)試,關(guān)心一下算法,定會發(fā)現(xiàn)FPGA的趣味和神通。

網(wǎng)絡結(jié)構(gòu)

二值化網(wǎng)絡,顧名思義,就是網(wǎng)絡參數(shù)只有兩個數(shù)值,這兩個數(shù)值是+1和-1。在DNN網(wǎng)絡中主要是乘和加法運算,如果參數(shù)只有兩個數(shù)值,那么乘法的實現(xiàn)就很簡單,僅僅需要符號判斷就可以了。比如輸入數(shù)據(jù)A,如果和1乘,不變;和-1乘,變?yōu)樨摂?shù)。這用LUT很好實現(xiàn),還節(jié)省了DSP的使用。相對于單精度浮點數(shù),存儲減小16倍,帶寬也增加16倍。在計算單元數(shù)目相同情況下,比浮點運算速率提高了16倍。當然由于乘法和加法使用LUT數(shù)目減少,計算單元也會成倍增長,總的下來計算速率將大幅度提高。

網(wǎng)絡訓練中使用的都是浮點類型參數(shù),這樣做是為了保證訓練的精度。那么這些浮點類型的參數(shù)如何量化的只有兩個數(shù)值呢?論文中提出了兩種方法,第一種是粗暴型,直接根據(jù)權(quán)重參數(shù)的正負,強行分出1和-1。即:

這里wb是二值參數(shù),w是實際權(quán)重參數(shù)。量化可以看做在原來數(shù)據(jù)基礎(chǔ)上增加了噪聲,導致數(shù)據(jù)間最短距離變大。比如原來數(shù)據(jù)的分辨率為R0,如果增加一個高斯噪聲s,那么其分辨率就增大了。這樣在DNN中矩陣乘法中也引入了噪聲,為:

數(shù)據(jù)分辨率的降低導致了有效信息的損失,但是在大量權(quán)重情形下,平均下來可以補償一定的信息損失,即如果有:

那么在權(quán)重無窮多時,有:


圖1.1 數(shù)據(jù)增加了噪聲,導致數(shù)據(jù)分辨率降低

另外一種是隨機型,即以一定概率來選擇1和-1,論文中采用如下公式:

其中“hard sigmoid”函數(shù)為:

這實際上是對sigmoid函數(shù)進行了線性化,這樣做的目的可以減少計算量。因為線性計算只有一個乘法和加法,而sigmoid函數(shù)有指數(shù)計算。使用隨機量化更能均衡化量化引入的噪聲,消除噪聲造成的信息損失。粗暴型量化可能因為權(quán)重參數(shù)分布不同而發(fā)生較大的“不平衡”,比如負數(shù)權(quán)重較多,那么導致-1遠遠多于+1,這樣就會出現(xiàn)權(quán)重偏移在負方向多一些。如果使用隨機概率模型,即使負數(shù)權(quán)重多,也會有一定概率出現(xiàn)+1,彌補了+1較少的情況。

圖1.2 粗暴型和隨機型量化:隨機型量化的分布更加均勻

訓練過程

訓練過程主要包括三個部分:

1) 前向傳播:給定輸入數(shù)據(jù),一層一層的計算,前一層激活函數(shù)的結(jié)果作為下一層的輸入;

2) 反向傳播:計算每一層代價函數(shù)的梯度,從最后一層開始計算,反向計算前一層,一直到計算出第一層的梯度值;

3) 更新參數(shù):根據(jù)計算出來的梯度和前一時刻的參數(shù),計算出下一時刻的參數(shù)。

計算過程可以用圖2.1表示:

圖2.1 訓練過程

圖2.2 訓練算法

每次量化發(fā)生在計算出浮點參數(shù)之后,然后在進行前向計算,得到代價函數(shù),進行反向計算代價函數(shù)梯度,接著利用前一刻參數(shù)計算出下一刻數(shù)據(jù),不斷迭代直到收斂。

結(jié)果

論文在三個數(shù)據(jù)集上進行了測試:MNIST,CIFAR-10,SVHN。

MNIST有6萬張內(nèi)容為0-9數(shù)字的訓練圖片,以及1萬張用于測試的28x28大小的灰度圖片。論文研究了兩種量化方式下訓練時間,以及測試出錯率。從中看出隨機量化出錯率更低,更適合用于二值量化。

圖3.1 不同量化方式下的訓練時間以及測試錯誤率:點線表示訓練誤差,連續(xù)線表示測試錯誤率

CIFAR-10圖片內(nèi)容比MNIST復雜一些,包含了各種動物。有5萬張訓練圖片和1萬張32x32大小的測試圖片。

SVHN也是0-9數(shù)字圖片,含有604K張訓練圖片和26K的32x32大小的測試圖片。以上三種數(shù)據(jù)集下使用二值網(wǎng)絡的結(jié)果如下圖:

圖3.2 三種數(shù)據(jù)集結(jié)果(錯誤率)比較

從中看出二值網(wǎng)絡錯誤率幾乎和其他網(wǎng)絡模型差不多,但是其大大壓縮了網(wǎng)絡模型。

結(jié)論

二值化網(wǎng)絡中參數(shù)只用兩個數(shù)值表示,實際上僅僅考慮了權(quán)重的符號作用。在三種小型簡單的數(shù)據(jù)集上表現(xiàn)良好。

文獻

1 Matthieu Courbariaux, Y.B., Binary Connect Training Deep Neural Networks with binary weights during propagations. ArXiv preprint, 2016.

編輯:hfy


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1631

    文章

    21806

    瀏覽量

    606646
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4633

    瀏覽量

    93466
收藏 人收藏

    評論

    相關(guān)推薦

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    BP神經(jīng)網(wǎng)絡的反向傳播算法(Backpropagation Algorithm)是種用于訓練神經(jīng)網(wǎng)絡的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡的反
    的頭像 發(fā)表于 02-12 15:18 ?160次閱讀

    EE-257:面向Blackfin處理器的引導壓縮/解壓縮算法

    電子發(fā)燒友網(wǎng)站提供《EE-257:面向Blackfin處理器的引導壓縮/解壓縮算法.pdf》資料免費下載
    發(fā)表于 01-07 13:56 ?0次下載
    EE-257:面向Blackfin處理器的引導<b class='flag-5'>壓縮</b>/解<b class='flag-5'>壓縮</b><b class='flag-5'>算法</b>

    【「從算法到電路—數(shù)字芯片算法的電路實現(xiàn)」閱讀體驗】+本介紹基礎(chǔ)硬件算法模塊實現(xiàn)的好書

    看下本書內(nèi)容簡介,然后再瀏覽下各個章節(jié)的內(nèi)容。 從簡介來看,本書也是關(guān)注最基礎(chǔ),最常用的那部分算法的電路實現(xiàn),比較貼合工程實踐,適合無基礎(chǔ)或者有定基礎(chǔ)的線工程人員閱讀。內(nèi)容選擇
    發(fā)表于 11-20 13:42

    【BearPi-Pico H3863星閃開發(fā)板體驗連載】LZO壓縮算法移植

    算法能夠在BearPi-Pico H3863正常實現(xiàn),但是壓縮算法還存在定的問題,需要在研究。 解壓
    發(fā)表于 11-10 21:45

    壓縮算法的類型和應用

    壓縮算法種通過減少數(shù)據(jù)量來節(jié)省存儲空間或傳輸數(shù)據(jù)的技術(shù)。壓縮算法可以分為兩種類型:有損壓縮
    的頭像 發(fā)表于 10-21 13:50 ?391次閱讀

    Huffman壓縮算法概述和詳細流程

    Huffman壓縮算法種基于字符出現(xiàn)頻率的編碼算法,通過構(gòu)建Huffman樹,將出現(xiàn)頻率高的字符用短編碼表示,出現(xiàn)頻率低的字符用長編碼表示,從而
    的頭像 發(fā)表于 10-21 13:48 ?345次閱讀

    精準捕捉拉曼信號——時間門控拉曼光譜系統(tǒng)實驗結(jié)果深度解析

    在上篇的文章(詳見文末目錄:閃光科技推出高性能時間門控拉曼光譜系統(tǒng),為科學研究注入新動力!),中,我們詳細介紹了時間門控拉曼光譜系統(tǒng)的技術(shù)參數(shù)與應用場景。本篇我們將為您深入解析我們通過該系統(tǒng)所獲
    的頭像 發(fā)表于 08-13 10:38 ?467次閱讀
    精準捕捉拉曼信號——時間門控拉曼光譜系統(tǒng)實驗<b class='flag-5'>結(jié)果</b>深度<b class='flag-5'>解析</b>

    卷積神經(jīng)網(wǎng)絡壓縮方法

    ,CNN模型的參數(shù)量和計算量也隨之劇增,這對硬件資源提出了嚴峻挑戰(zhàn)。因此,卷積神經(jīng)網(wǎng)絡壓縮方法成為了研究熱點。本文將從多個角度詳細介紹卷積神經(jīng)網(wǎng)絡壓縮方法,包括前端
    的頭像 發(fā)表于 07-11 11:46 ?446次閱讀

    bp神經(jīng)網(wǎng)絡算法的基本流程包括哪些

    BP神經(jīng)網(wǎng)絡算法,即反向傳播神經(jīng)網(wǎng)絡算法,是種常用的多層前饋神經(jīng)網(wǎng)絡訓練
    的頭像 發(fā)表于 07-04 09:47 ?776次閱讀

    神經(jīng)網(wǎng)絡反向傳播算法的原理、數(shù)學推導及實現(xiàn)步驟

    傳播算法的原理、數(shù)學推導、實現(xiàn)步驟以及在深度學習中的應用。 神經(jīng)網(wǎng)絡概述 神經(jīng)網(wǎng)絡種受人腦啟發(fā)的計算模型,由大量的神經(jīng)元(或稱為節(jié)點)組
    的頭像 發(fā)表于 07-03 11:16 ?1026次閱讀

    神經(jīng)網(wǎng)絡反向傳播算法原理是什么

    介紹反向傳播算法的原理、數(shù)學基礎(chǔ)、實現(xiàn)步驟和應用場景。 神經(jīng)網(wǎng)絡簡介 神經(jīng)網(wǎng)絡種受人腦啟發(fā)的計算模型,由大量的神經(jīng)元(或稱為節(jié)點)組成。
    的頭像 發(fā)表于 07-02 14:16 ?801次閱讀

    【RTC程序設計:實時音視頻權(quán)威指南】音視頻的編解碼壓縮技術(shù)

    和技術(shù)可以實現(xiàn)不同的高效壓縮和解壓縮,常用的就是MP4件。 MP4是種容器格式,包含多種類型的媒體文件,如視頻,音頻,靜態(tài)圖像等,這
    發(fā)表于 04-28 21:04

    FPGA壓縮算法有哪些

    在圖像壓縮算法中可以采用哈夫曼編碼的方式對編碼冗余的信息進行壓縮,可以采用預測的方式來減少像素間冗余,可以采用量化的方式完成心理視覺冗余信息的去除
    的頭像 發(fā)表于 04-15 11:48 ?735次閱讀
    FPGA<b class='flag-5'>壓縮</b><b class='flag-5'>算法</b>有哪些

    基于門控線性網(wǎng)絡(GLN)的高壓縮比無損醫(yī)學圖像壓縮算法

    實現(xiàn)基于門控線性網(wǎng)絡(GLN)的高壓縮比無損醫(yī)學圖像壓縮算法,以提高醫(yī)學圖像存儲和分發(fā)系統(tǒng)的效率。與“傳統(tǒng)”的基于上下文的數(shù)據(jù)
    的頭像 發(fā)表于 04-08 10:29 ?758次閱讀
    基于門控線性<b class='flag-5'>網(wǎng)絡</b>(GLN)的高<b class='flag-5'>壓縮</b>比無損醫(yī)學圖像<b class='flag-5'>壓縮</b><b class='flag-5'>算法</b>

    基于FPGA的網(wǎng)絡加速設計實現(xiàn)

    首先是FPGA硬件的變化太多,各個模塊可配參數(shù)的變化(比如卷積模塊并行數(shù)的變化),另外個是網(wǎng)絡模型多種多樣以及開源的網(wǎng)絡模型平臺也很多(tensorflow,pytorch等)。網(wǎng)絡
    發(fā)表于 04-08 09:48 ?1117次閱讀
    基于FPGA的<b class='flag-5'>網(wǎng)絡</b>加速設計<b class='flag-5'>實現(xiàn)</b>
    主站蜘蛛池模板: 1024手机看片日韩 | 夜夜操美女 | 99在线热播精品免费 | 亚洲第一区视频在线观看 | 永久免费毛片 | 可以免费观看的黄色网址 | 欧美成年性色mmm | 免费在线黄色网 | 狠狠一区 | 天天综合色一区二区三区 | 欧美黄色影院 | 久久综合久色欧美婷婷 | 天天操天天插天天射 | 久久国产精品夜色 | 欧美成人观看免费全部完小说 | 日本在线色视频 | 久久草在线视频播放 | 来啊mm影院亚洲mm影院 | 国产精品九九热 | 上课被同桌摸下面做羞羞 | 国产成 人 综合 亚洲网 | 欧美性视频一区二区三区 | 免费在线a视频 | 在线播放国产一区 | 日本xxxx色视频在线观看免费 | 国产综合久久久久影院 | 久久久久国产午夜 | 天天爽天天爱 | 韩国三级hd中文字幕久久精品 | 日本久操| 色v在线| 迅雷www天堂在线资源 | 伊人手机在线观看 | 九九热免费在线观看 | 国产黄色录像视频 | 影音先锋色偷偷米奇四色 | 特黄免费 | 香蕉久久夜色精品国产小说 | 中文字字幕码一二区 | 操女人免费视频 | 男男全肉高h腐文 |