邊緣計(jì)算將計(jì)算、網(wǎng)絡(luò)、存儲等能力擴(kuò)展到物聯(lián)網(wǎng)設(shè)備附近的網(wǎng)絡(luò)邊緣側(cè),而以深度學(xué)習(xí)為代表的人工智能技術(shù)讓每個邊緣計(jì)算的節(jié)點(diǎn)都具有計(jì)算和決策的能力,這使得某些復(fù)雜的智能應(yīng)用可以在本地邊緣端進(jìn)行處理,滿足了敏捷連接、實(shí)時業(yè)務(wù)、數(shù)據(jù)優(yōu)化、應(yīng)用智能、安全與隱私保護(hù)等方面的需求。智能邊緣計(jì)算利用物聯(lián)網(wǎng)的邊緣設(shè)備進(jìn)行數(shù)據(jù)采集和智能分析計(jì)算,實(shí)現(xiàn)智能在云和邊緣之間流動,對人工智能算法、終端、芯片都提出了新的需求,正成為越來越多人工智能企業(yè)關(guān)注的重點(diǎn)方向。然而,由于深度學(xué)習(xí)模型推理需要消耗大量的計(jì)算資源,當(dāng)前的大多數(shù)邊緣設(shè)備由于資源受限無法以低延遲、低功耗、高精確率的方式支持深度學(xué)習(xí)應(yīng)用。
深度神經(jīng)網(wǎng)絡(luò)與其他很多機(jī)器學(xué)習(xí)模型一樣,可分為訓(xùn)練和推理兩個階段。訓(xùn)練階段根據(jù)數(shù)據(jù)學(xué)習(xí)模型中的參數(shù)(對神經(jīng)網(wǎng)絡(luò)來說主要是網(wǎng)絡(luò)中的權(quán)重);推理階段將新數(shù)據(jù)輸入模型,經(jīng)過計(jì)算得出結(jié)果。過參數(shù)化是指在訓(xùn)練階段,網(wǎng)絡(luò)需要大量的參數(shù)來捕捉數(shù)據(jù)中的微小信息,而一旦訓(xùn)練完成到了推理階段,就不需要這么多的參數(shù)。基于這樣的假設(shè),就可以在部署前對模型進(jìn)行簡化。模型壓縮中的剪枝(pruning)和量化兩類方法正是基于這樣的前提。模型簡化的優(yōu)點(diǎn)包括但不限于:(1)計(jì)算量的減小,從而使計(jì)算時間更少,功耗更小;(2)存儲和讀寫訪問量變小,可以放到更邊緣的設(shè)備上運(yùn)行,本來需要既慢又耗能的DRAM參與,現(xiàn)在有可能放在SRAM就可以。其核心問題是如何有效地裁剪模型并使得精度的損失最小化。
對于神經(jīng)網(wǎng)絡(luò)修剪的研究始于20世紀(jì)80年代末、90年代初。漢森(Hanson)在1988年提出基于幅度的修剪方法,即對網(wǎng)絡(luò)中每個隱含單元施加與其絕對值相關(guān)的權(quán)重衰減來使隱含單元數(shù)量最小化。樂昆(LeCun)和哈斯比(Hassibi)分別在1990年和1993年提出最優(yōu)腦損傷(Optimal Brain Damage,OBD)和最優(yōu)腦手術(shù)(Optimal Brain Surgeon,OBS)方法,它們基于損失函數(shù)相對于權(quán)重的二階導(dǎo)數(shù)(對權(quán)重向量來說即Hessian矩陣)來衡量網(wǎng)絡(luò)中權(quán)重的重要程度,然后對其進(jìn)行裁剪。由于受到當(dāng)時計(jì)算資源的限制,研究僅限于淺層神經(jīng)網(wǎng)絡(luò),但其對問題的定義和解決問題的思路對之后的工作產(chǎn)生了深遠(yuǎn)的影響。從2012年起,神經(jīng)網(wǎng)絡(luò)的變化趨勢是不斷加深網(wǎng)絡(luò)以提高精度。在2015-2016年期間,Han等人發(fā)表了一系列對深度神經(jīng)網(wǎng)絡(luò)進(jìn)行模型壓縮的工作,其中Deep Compression對當(dāng)時經(jīng)典網(wǎng)絡(luò)AlexNet和VGG進(jìn)行了壓縮。結(jié)合修剪、量化和哈夫曼編碼等多種方法,將網(wǎng)絡(luò)尺寸壓縮至幾十分之一,性能獲得成倍的提升。其中對于修剪帶來的精度損失,使用了迭代修剪方法進(jìn)行補(bǔ)償,使精度幾乎沒有損失。之后這幾年,模型壓縮領(lǐng)域變得越來越豐富,越來越多的相關(guān)工作衍生而出。
從網(wǎng)絡(luò)修剪的粒度來說,可以分為結(jié)構(gòu)化剪枝(structured pruning)和非結(jié)構(gòu)化剪枝(unstructured pruning)兩類。早期的一些方法是基于非結(jié)構(gòu)化的,它修剪的粒度為單個神經(jīng)元。如果對卷積核進(jìn)行非結(jié)構(gòu)化剪枝,則得到的卷積核是稀疏的,即中間有很多元素為0的矩陣。除非下層的硬件和計(jì)算庫對其有比較好的支持,否則修剪后的網(wǎng)絡(luò)很難獲得實(shí)質(zhì)的性能提升。稀疏矩陣無法利用現(xiàn)有成熟的基礎(chǔ)線性代數(shù)子程序(Basic Linear Algebra Subprograms,BLAS)庫來獲得額外性能收益。因此,很多研究是集中在結(jié)構(gòu)化剪枝上,通常細(xì)分為通道剪枝、卷積核剪枝和網(wǎng)絡(luò)結(jié)構(gòu)修剪。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4782瀏覽量
101229 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5518瀏覽量
121603 -
邊緣計(jì)算
+關(guān)注
關(guān)注
22文章
3124瀏覽量
49563
發(fā)布評論請先 登錄
相關(guān)推薦
神經(jīng)網(wǎng)絡(luò)在FPGA上的應(yīng)用:深度壓縮方法
![<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在FPGA上的應(yīng)用:<b class='flag-5'>深度</b><b class='flag-5'>壓縮</b>方法](https://file.elecfans.com/web1/M00/C8/52/pIYBAF9t-KuANY0uAADqmIFsYlg959.png)
從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)
如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?
深度神經(jīng)網(wǎng)絡(luò)是什么
基于深度神經(jīng)網(wǎng)絡(luò)的激光雷達(dá)物體識別系統(tǒng)
卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用
深度神經(jīng)網(wǎng)絡(luò)的壓縮和正則化剖析
![<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>壓縮</b>和正則化剖析](https://file1.elecfans.com//web2/M00/A6/E7/wKgZomUMQSiANyJiAABbI7Kfz3M699.png)
面向“邊緣”應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò)如何進(jìn)行量化與壓縮詳細(xì)方法
![面向“<b class='flag-5'>邊緣</b>”應(yīng)用的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何進(jìn)行量化與<b class='flag-5'>壓縮</b>詳細(xì)方法](https://file.elecfans.com/web1/M00/7F/A2/pIYBAFwjRpSAfP3UAABEynin8xo161.png)
基于深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)化剪枝算法
![基于<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的結(jié)構(gòu)化<b class='flag-5'>剪枝</b>算法](https://file.elecfans.com/web1/M00/E4/BD/pIYBAGBIiPqAcrDiAAFGZlmq-Tw249.png)
神經(jīng)網(wǎng)絡(luò)圖像壓縮算法的FPGA實(shí)現(xiàn)技術(shù)研究論文免費(fèi)下載
![<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>圖像<b class='flag-5'>壓縮</b>算法的FPGA實(shí)現(xiàn)技術(shù)<b class='flag-5'>研究</b>論文免費(fèi)下載](https://file.elecfans.com/web1/M00/E6/A2/pIYBAGBYU82AEj-MAAB38eyGC4s192.png)
深度神經(jīng)網(wǎng)絡(luò)模型的壓縮和優(yōu)化綜述
![<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型的<b class='flag-5'>壓縮</b>和優(yōu)化綜述](https://file.elecfans.com/web1/M00/EA/7D/pIYBAGBzsJGARy7KAAG3pofuQI4613.png)
評論