在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣計(jì)算中深度神經(jīng)網(wǎng)絡(luò)剪枝壓縮的研究

倩倩 ? 來源:我是天邊飄過一朵云 ? 2020-03-27 15:50 ? 次閱讀

邊緣計(jì)算將計(jì)算、網(wǎng)絡(luò)、存儲等能力擴(kuò)展到物聯(lián)網(wǎng)設(shè)備附近的網(wǎng)絡(luò)邊緣側(cè),而以深度學(xué)習(xí)為代表的人工智能技術(shù)讓每個邊緣計(jì)算的節(jié)點(diǎn)都具有計(jì)算和決策的能力,這使得某些復(fù)雜的智能應(yīng)用可以在本地邊緣端進(jìn)行處理,滿足了敏捷連接、實(shí)時業(yè)務(wù)、數(shù)據(jù)優(yōu)化、應(yīng)用智能、安全與隱私保護(hù)等方面的需求。智能邊緣計(jì)算利用物聯(lián)網(wǎng)的邊緣設(shè)備進(jìn)行數(shù)據(jù)采集和智能分析計(jì)算,實(shí)現(xiàn)智能在云和邊緣之間流動,對人工智能算法、終端、芯片都提出了新的需求,正成為越來越多人工智能企業(yè)關(guān)注的重點(diǎn)方向。然而,由于深度學(xué)習(xí)模型推理需要消耗大量的計(jì)算資源,當(dāng)前的大多數(shù)邊緣設(shè)備由于資源受限無法以低延遲、低功耗、高精確率的方式支持深度學(xué)習(xí)應(yīng)用。

深度神經(jīng)網(wǎng)絡(luò)與其他很多機(jī)器學(xué)習(xí)模型一樣,可分為訓(xùn)練和推理兩個階段。訓(xùn)練階段根據(jù)數(shù)據(jù)學(xué)習(xí)模型中的參數(shù)(對神經(jīng)網(wǎng)絡(luò)來說主要是網(wǎng)絡(luò)中的權(quán)重);推理階段將新數(shù)據(jù)輸入模型,經(jīng)過計(jì)算得出結(jié)果。過參數(shù)化是指在訓(xùn)練階段,網(wǎng)絡(luò)需要大量的參數(shù)來捕捉數(shù)據(jù)中的微小信息,而一旦訓(xùn)練完成到了推理階段,就不需要這么多的參數(shù)。基于這樣的假設(shè),就可以在部署前對模型進(jìn)行簡化。模型壓縮中的剪枝(pruning)和量化兩類方法正是基于這樣的前提。模型簡化的優(yōu)點(diǎn)包括但不限于:(1)計(jì)算量的減小,從而使計(jì)算時間更少,功耗更小;(2)存儲和讀寫訪問量變小,可以放到更邊緣的設(shè)備上運(yùn)行,本來需要既慢又耗能的DRAM參與,現(xiàn)在有可能放在SRAM就可以。其核心問題是如何有效地裁剪模型并使得精度的損失最小化。

對于神經(jīng)網(wǎng)絡(luò)修剪的研究始于20世紀(jì)80年代末、90年代初。漢森(Hanson)在1988年提出基于幅度的修剪方法,即對網(wǎng)絡(luò)中每個隱含單元施加與其絕對值相關(guān)的權(quán)重衰減來使隱含單元數(shù)量最小化。樂昆(LeCun)和哈斯比(Hassibi)分別在1990年和1993年提出最優(yōu)腦損傷(Optimal Brain Damage,OBD)和最優(yōu)腦手術(shù)(Optimal Brain Surgeon,OBS)方法,它們基于損失函數(shù)相對于權(quán)重的二階導(dǎo)數(shù)(對權(quán)重向量來說即Hessian矩陣)來衡量網(wǎng)絡(luò)中權(quán)重的重要程度,然后對其進(jìn)行裁剪。由于受到當(dāng)時計(jì)算資源的限制,研究僅限于淺層神經(jīng)網(wǎng)絡(luò),但其對問題的定義和解決問題的思路對之后的工作產(chǎn)生了深遠(yuǎn)的影響。從2012年起,神經(jīng)網(wǎng)絡(luò)的變化趨勢是不斷加深網(wǎng)絡(luò)以提高精度。在2015-2016年期間,Han等人發(fā)表了一系列對深度神經(jīng)網(wǎng)絡(luò)進(jìn)行模型壓縮的工作,其中Deep Compression對當(dāng)時經(jīng)典網(wǎng)絡(luò)AlexNet和VGG進(jìn)行了壓縮。結(jié)合修剪、量化和哈夫曼編碼等多種方法,將網(wǎng)絡(luò)尺寸壓縮至幾十分之一,性能獲得成倍的提升。其中對于修剪帶來的精度損失,使用了迭代修剪方法進(jìn)行補(bǔ)償,使精度幾乎沒有損失。之后這幾年,模型壓縮領(lǐng)域變得越來越豐富,越來越多的相關(guān)工作衍生而出。

從網(wǎng)絡(luò)修剪的粒度來說,可以分為結(jié)構(gòu)化剪枝(structured pruning)和非結(jié)構(gòu)化剪枝(unstructured pruning)兩類。早期的一些方法是基于非結(jié)構(gòu)化的,它修剪的粒度為單個神經(jīng)元。如果對卷積核進(jìn)行非結(jié)構(gòu)化剪枝,則得到的卷積核是稀疏的,即中間有很多元素為0的矩陣。除非下層的硬件和計(jì)算庫對其有比較好的支持,否則修剪后的網(wǎng)絡(luò)很難獲得實(shí)質(zhì)的性能提升。稀疏矩陣無法利用現(xiàn)有成熟的基礎(chǔ)線性代數(shù)子程序(Basic Linear Algebra Subprograms,BLAS)庫來獲得額外性能收益。因此,很多研究是集中在結(jié)構(gòu)化剪枝上,通常細(xì)分為通道剪枝、卷積核剪枝和網(wǎng)絡(luò)結(jié)構(gòu)修剪。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)在FPGA上的應(yīng)用:深度壓縮方法

    對AlexNet和VGG-16進(jìn)行了實(shí)驗(yàn),獲得了35倍和49倍的壓縮量,而且精度幾乎沒有損失。 1. 原理 深度壓縮之所以獲得成功主要是結(jié)合了三種壓縮方法:
    的頭像 發(fā)表于 11-21 11:00 ?3269次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在FPGA上的應(yīng)用:<b class='flag-5'>深度</b><b class='flag-5'>壓縮</b>方法

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    思維導(dǎo)圖如下:發(fā)展歷程DNN-定義和概念在卷積神經(jīng)網(wǎng)絡(luò),卷積操作和池化操作有機(jī)的堆疊在一起,一起組成了CNN的主干。同樣是受到獼猴視網(wǎng)膜與視覺皮層之間多層網(wǎng)絡(luò)的啟發(fā),深度
    發(fā)表于 05-08 15:57

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò),多層前饋神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的信息處理能力,由于其采用B
    發(fā)表于 08-08 06:11

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    基于深度神經(jīng)網(wǎng)絡(luò)的激光雷達(dá)物體識別系統(tǒng)

    的激光雷達(dá)物體識別技術(shù)一直難以在嵌入式平臺上實(shí)時運(yùn)行。經(jīng)緯恒潤經(jīng)過潛心研發(fā),攻克了深度神經(jīng)網(wǎng)絡(luò)在嵌入式平臺部署所面臨的算子定制與加速、量化策略、模型壓縮等難題,率先實(shí)現(xiàn)了高性能激光檢測神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-21 07:59

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    network,DBN)[24], 從此拉開了深度學(xué)習(xí)大幕。隨著深度學(xué)習(xí)理論的研究和發(fā)展,研究人員提 出了一系列卷積神經(jīng)網(wǎng)絡(luò)模型。為了比較
    發(fā)表于 08-02 10:39

    深度神經(jīng)網(wǎng)絡(luò)壓縮和正則化剖析

    利用深度壓縮和DSD訓(xùn)練來提高預(yù)測精度。 深度神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決計(jì)算機(jī)視覺、語音識別和自然語言處理等機(jī)器學(xué)習(xí)任務(wù)的最先進(jìn)的技術(shù)。盡管如此,
    發(fā)表于 11-16 13:11 ?1846次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>壓縮</b>和正則化剖析

    面向“邊緣”應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò)如何進(jìn)行量化與壓縮詳細(xì)方法

    針對卷積神經(jīng)網(wǎng)絡(luò)( CNN)推理計(jì)算所需內(nèi)存空間和資源過大,限制了其在嵌入式等“邊緣”設(shè)備上部署的問題,提出結(jié)合網(wǎng)絡(luò)權(quán)重裁剪及面向嵌入式硬件平臺數(shù)據(jù)類型的數(shù)據(jù)量化的
    發(fā)表于 12-26 17:01 ?4次下載
    面向“<b class='flag-5'>邊緣</b>”應(yīng)用的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何進(jìn)行量化與<b class='flag-5'>壓縮</b>詳細(xì)方法

    基于深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)化剪枝算法

      現(xiàn)有結(jié)構(gòu)化剪枝算法通常運(yùn)用深度神經(jīng)網(wǎng)絡(luò)(DNN)的一階或者零階信息對通道進(jìn)行剪枝,為利用二階信息加快DNN網(wǎng)絡(luò)模型收斂速度,借鑒HAWQ
    發(fā)表于 03-10 16:41 ?2次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的結(jié)構(gòu)化<b class='flag-5'>剪枝</b>算法

    神經(jīng)網(wǎng)絡(luò)圖像壓縮算法的FPGA實(shí)現(xiàn)技術(shù)研究論文免費(fèi)下載

    神經(jīng)網(wǎng)絡(luò)圖像壓縮是圖像壓縮神經(jīng)網(wǎng)絡(luò)領(lǐng)域的主要研究方向之一,基于多層前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 03-22 16:06 ?11次下載
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>圖像<b class='flag-5'>壓縮</b>算法的FPGA實(shí)現(xiàn)技術(shù)<b class='flag-5'>研究</b>論文免費(fèi)下載

    深度神經(jīng)網(wǎng)絡(luò)模型的壓縮和優(yōu)化綜述

    近年來,隨著深度學(xué)習(xí)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)受到了越來越多的關(guān)注,在許多應(yīng)用領(lǐng)域取得了顯著效果。通常,在較高的計(jì)算量下,深度
    發(fā)表于 04-12 10:26 ?20次下載
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型的<b class='flag-5'>壓縮</b>和優(yōu)化綜述

    基于剪枝與量化的卷積神經(jīng)網(wǎng)絡(luò)壓縮算法

    隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)作為其重要算法被廣泛應(yīng)用到計(jì)算機(jī)視覺、自然語言處理及語音處理等各個領(lǐng)域,并取得了比傳統(tǒng)算法更為優(yōu)秀的成績。但是,卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,參數(shù)量和
    發(fā)表于 05-17 15:44 ?6次下載

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)元之間的權(quán)重,從而實(shí)現(xiàn)對大規(guī)模數(shù)據(jù)進(jìn)行預(yù)
    發(fā)表于 08-21 17:07 ?4261次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)壓縮方法

    ,CNN模型的參數(shù)量和計(jì)算量也隨之劇增,這對硬件資源提出了嚴(yán)峻挑戰(zhàn)。因此,卷積神經(jīng)網(wǎng)絡(luò)壓縮方法成為了研究熱點(diǎn)。本文將從多個角度詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 11:46 ?440次閱讀

    FPGA在深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    、低功耗等特點(diǎn),逐漸成為深度神經(jīng)網(wǎng)絡(luò)邊緣計(jì)算和設(shè)備端推理的重要硬件平臺。本文將詳細(xì)探討FPGA在深度
    的頭像 發(fā)表于 07-24 10:42 ?807次閱讀
    主站蜘蛛池模板: 色多多福利| 天堂看动漫| 欧美性喷潮xxxx | 毛片你懂的 | 四虎影院台湾辣妹 | 欧美xxxx性特级高清 | 一级特色黄色片 | 在线看3344免费视频 | 国产精品三级a三级三级午夜 | 久久夜色精品国产噜噜小说 | 影音先锋ady69色资源网站 | 99午夜高清在线视频在观看 | 午夜免费观看福利片一区二区三区 | 日本黄色免费观看 | 久久午夜神器 | 妇女交性大片 | 激情五月婷婷综合网 | 亚洲福利在线视频 | ccc36色影| 日韩a一级欧美一级 | 亚洲综合色一区 | 嫩草影院在线入口 | 在线观看三级视频 | 成人国产在线24小时播放视频 | 亚洲影院手机版777点击进入影院 | 亚洲精品综合网在线8050影院 | 午夜影剧| www.狠狠干| 第四色激情| 亚洲免费不卡 | 无码一区二区三区视频 | 欧美黑人粗暴另类多交 | 二级黄色大片 | 色优优| 亚洲偷图色综合色就色 | 日本特黄特色大片免费播放视频 | 就操| 上课被同桌强行摸下面小黄文 | 日韩在线看片 | 热久久综合这里只有精品电影 | 巨臀中文字幕一区二区翘臀 |