在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)集,網(wǎng)絡(luò)架構(gòu)和剪枝方法

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-10-23 09:15 ? 次閱讀

模型剪枝被認(rèn)為是一種有效的模型壓縮方法。然而,剪枝方法真的有文獻(xiàn)中聲稱的那么有效嗎?最近UC Berkeley、清華大學(xué)的研究人員提交給ICLR 2019的論文《重新思考剪枝》質(zhì)疑了六種剪枝方法,引起關(guān)注。

網(wǎng)絡(luò)剪枝(Network Pruning)是常用的模型壓縮方法之一,被廣泛用于降低深度模型的繁重計(jì)算量。

一個(gè)典型的剪枝算法通常有三個(gè)階段,即訓(xùn)練(大型模型),剪枝和微調(diào)。在剪枝過(guò)程中,根據(jù)一定的標(biāo)準(zhǔn),對(duì)冗余權(quán)重進(jìn)行修剪并保留重要權(quán)重,以最大限度地保持精確性。

剪枝通常能大幅減少參數(shù)數(shù)量,壓縮空間,從而降低計(jì)算量。

然而,剪枝方法真的有它們聲稱的那么有效嗎?

最近一篇提交給ICLR 2019的論文似乎與最近所有network pruning相關(guān)的論文結(jié)果相矛盾,這篇論文質(zhì)疑了幾個(gè)常用的模型剪枝方法的結(jié)果,包括韓松(Song Han)獲得ICLR2016最佳論文的“Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding”。

這篇論文迅速引起關(guān)注,有人認(rèn)為它甚至可能改變我們?cè)诠I(yè)中訓(xùn)練和部署模型的workflow。論文作者來(lái)自UC Berkeley和清華大學(xué),他們?cè)贠penReview上與被他們質(zhì)疑的模型作者有一些有意思的反饋,感興趣的讀者可以去看看。地址:

https://openreview.net/forum?id=rJlnB3C5Ym

論文地址:

https://arxiv.org/pdf/1810.05270.pdf

在這篇論文里,作者發(fā)現(xiàn)了幾個(gè)與普遍觀念相矛盾的的觀察。他們檢查了6種最先進(jìn)的剪枝算法,發(fā)現(xiàn)對(duì)剪枝后的模型進(jìn)行fine-tuning,只比使用隨機(jī)初始化權(quán)重訓(xùn)練的網(wǎng)絡(luò)的性能好一點(diǎn)點(diǎn),甚至性能更差。

作者說(shuō):“對(duì)于采用預(yù)定義目標(biāo)網(wǎng)絡(luò)架構(gòu)的剪枝算法,可以擺脫整個(gè)pipeline并直接從頭開始訓(xùn)練目標(biāo)網(wǎng)絡(luò)。我們的觀察結(jié)果對(duì)于具有多種網(wǎng)絡(luò)架構(gòu),數(shù)據(jù)集和任務(wù)的各種剪枝算法是一致的。”

作者總結(jié)認(rèn)為,這一發(fā)現(xiàn)有幾個(gè)意義:

1)訓(xùn)練一個(gè)大型、over-parameterized的模型對(duì)于最終得到一個(gè)efficient的小模型不是必需的;

2)為了得到剪枝后的小模型,求取大模型的“important” weights不一定有用;

3)剪枝得到的結(jié)構(gòu)本身,而不是一組“important” weights,是導(dǎo)致最終模型效果提升的原因。這表明一些剪枝算法可以被視為執(zhí)行了“網(wǎng)絡(luò)結(jié)構(gòu)搜索”(network architecture search)。

推翻網(wǎng)絡(luò)剪枝背后的兩個(gè)共同信念

過(guò)度參數(shù)化(over-parameterization)是深度神經(jīng)網(wǎng)絡(luò)的一個(gè)普遍屬性,這會(huì)導(dǎo)致高計(jì)算成本和高內(nèi)存占用。作為一種補(bǔ)救措施,網(wǎng)絡(luò)剪枝(network pruning)已被證實(shí)是一種有效的改進(jìn)技術(shù),可以在計(jì)算預(yù)算有限的情況下提高深度網(wǎng)絡(luò)的效率。

網(wǎng)絡(luò)剪枝的過(guò)程一般包括三個(gè)階段:1)訓(xùn)練一個(gè)大型,過(guò)度參數(shù)化的模型,2)根據(jù)特定標(biāo)準(zhǔn)修剪訓(xùn)練好的大模型,以及3)微調(diào)(fine-tune)剪枝后的模型以重新獲得丟失的性能。

網(wǎng)絡(luò)剪枝的三個(gè)階段

通常,這種剪枝程序背后有兩個(gè)共同的信念。

首先,人們認(rèn)為從訓(xùn)練一個(gè)大型的、過(guò)度參數(shù)化的網(wǎng)絡(luò)開始是很重要的,因?yàn)樗峁┝艘粋€(gè)高性能的模型,從中可以安全地刪除一組冗余參數(shù)而不會(huì)顯著損害準(zhǔn)確性。因此,這通常被認(rèn)為是比直接從頭開始訓(xùn)練較小的網(wǎng)絡(luò)更好的方法,也是一種常用的baseline方法。

其次,修剪后得到的結(jié)構(gòu)及其相關(guān)權(quán)重被認(rèn)為是獲得最終的有效模型所必需的。

因此,大多數(shù)現(xiàn)有的剪枝技術(shù)選擇fine-tune剪枝模型,而不是從頭開始訓(xùn)練。剪枝后保留的權(quán)重通常被認(rèn)為是關(guān)鍵的,因此如何準(zhǔn)確地選擇重要權(quán)重集是一個(gè)非常活躍的研究課題。

在這項(xiàng)工作中,我們發(fā)現(xiàn)上面提到的兩種信念都不一定正確。

基于對(duì)具有多個(gè)網(wǎng)絡(luò)架構(gòu)的多個(gè)數(shù)據(jù)集的最新剪枝算法的經(jīng)驗(yàn)評(píng)估,我們得出了兩個(gè)令人驚訝的觀察。

圖2:預(yù)定義和非預(yù)定義目標(biāo)架構(gòu)的區(qū)別

首先,對(duì)于具有預(yù)定義目標(biāo)網(wǎng)絡(luò)架構(gòu)的剪枝算法(圖2),從隨機(jī)初始化開始直接訓(xùn)練小型目標(biāo)模型可以實(shí)現(xiàn)與剪枝方法獲得的模型相同(甚至更好)的性能。在這種情況下,不需要從大型模型開始,而是可以直接從頭開始訓(xùn)練目標(biāo)模型。

其次,對(duì)于沒(méi)有預(yù)定義目標(biāo)網(wǎng)絡(luò)的剪枝算法,從頭開始訓(xùn)練剪枝模型也可以實(shí)現(xiàn)與fine-tune相當(dāng)或甚至更好的性能。這一觀察表明,對(duì)于這些剪枝算法,重要的是獲得的模型架構(gòu),而不是保留的權(quán)重,盡管找到目標(biāo)結(jié)構(gòu)需要訓(xùn)練大型模型。

我們的結(jié)果主張重新思考現(xiàn)有的網(wǎng)絡(luò)剪枝算法。似乎在第一階段的訓(xùn)練期間的過(guò)度參數(shù)化并不像以前認(rèn)為的那樣有益。此外,從大型模型繼承權(quán)重不一定是最優(yōu)的,并且可能將修剪后的模型陷入糟糕的局部最小值,即使權(quán)重被剪枝標(biāo)準(zhǔn)視為“重要”。

相反,我們的結(jié)果表明,自動(dòng)剪枝算法的價(jià)值在于識(shí)別有效的結(jié)構(gòu)和執(zhí)行隱式架構(gòu)搜索(implicit architecture search),而不是選擇“important”權(quán)重。我們通過(guò)精心設(shè)計(jì)的實(shí)驗(yàn)驗(yàn)證了這一假設(shè),并展示了剪枝模型中的模式可以為有效的模型架構(gòu)提供設(shè)計(jì)指導(dǎo)。

從頭開始訓(xùn)練小模型的方法

本節(jié)描述了從頭開始訓(xùn)練小型目標(biāo)模型的方法。

目標(biāo)剪枝架構(gòu)(Target Pruned Architectures)

我們首先將網(wǎng)絡(luò)剪枝方法分為兩類。在pruning pipeline中,目標(biāo)剪枝模型的架構(gòu)可以由人(即預(yù)定義的)或剪枝算法(即自動(dòng)的)來(lái)確定(見圖2)。

數(shù)據(jù)集,網(wǎng)絡(luò)架構(gòu)和剪枝方法

在network pruning 的相關(guān)文獻(xiàn)中,CIFAR-10,CIFAR-100和ImageNet數(shù)據(jù)集是事實(shí)上的基準(zhǔn),而VGG,ResNet和DenseNet是常見的網(wǎng)絡(luò)架構(gòu)。

我們?cè)u(píng)估了三種預(yù)定義目標(biāo)架構(gòu)的剪枝方法:Li et al. (2017), Luo et al. (2017), He et al. (2017b),以及評(píng)估了三種自動(dòng)發(fā)現(xiàn)目標(biāo)模型的剪枝方法Liu et al. (2017), Huang & Wang (2018), Han et al. (2015)。

訓(xùn)練預(yù)算

一個(gè)關(guān)鍵問(wèn)題是,我們應(yīng)該花多長(zhǎng)時(shí)間從頭開始訓(xùn)練這個(gè)剪枝后的小模型?用與訓(xùn)練大型模型同樣的epoch數(shù)量來(lái)訓(xùn)練可能是不公平的,因?yàn)樾∧P驮谝粋€(gè)epoch中需要的計(jì)算量要少得多。

在我們的實(shí)驗(yàn)中,我們使用Scratch-E表示訓(xùn)練相同epoch的小剪枝模型,用Scratch-B表示訓(xùn)練相同數(shù)量的計(jì)算預(yù)算。

實(shí)現(xiàn)(Implementation)

為了使我們的設(shè)置盡可能接近原始論文,我們使用了以下協(xié)議:

1)如果以前的剪枝方法的訓(xùn)練設(shè)置是公開的,如Liu et al.(2017)和Huang & Wang(2018),就采用原始實(shí)現(xiàn);

2)對(duì)于更簡(jiǎn)單的剪枝方法,如Li et al.(2017)和Han et al.(2015),我們重新實(shí)現(xiàn)了剪枝方法,得到了與原論文相似的結(jié)果;

3)其余兩種方法(Luo et al., 2017; He et al., 2017b),剪枝后的模型是公開的,但是沒(méi)有訓(xùn)練設(shè)置,因此我們選擇從頭訓(xùn)練目標(biāo)模型。

結(jié)果和訓(xùn)練模型的代碼可以在這里中找到:

https://github.com/Eric-mingjie/rethinking-networks-pruning

實(shí)驗(yàn)與結(jié)果

在本節(jié)中,我們將展示實(shí)驗(yàn)結(jié)果,這些實(shí)驗(yàn)結(jié)果比較了從頭開始的訓(xùn)練剪枝模型和基于繼承權(quán)重進(jìn)行微調(diào),以及預(yù)定義和自動(dòng)發(fā)現(xiàn)的目標(biāo)體系結(jié)構(gòu)的方法。此外還包括從圖像分類到物體檢測(cè)的轉(zhuǎn)移學(xué)習(xí)實(shí)驗(yàn)。

表1:基于L1范數(shù)的通道剪枝的結(jié)果(準(zhǔn)確度)。“剪枝模型”是從大型模型中進(jìn)行剪枝的模型。原模型和剪枝模型的配置均來(lái)自原始論文。

表2:ThiNet的結(jié)果(準(zhǔn)確度)。“VGG-GAP”和“ResNet50-30%”等指ThiNet中配置的剪枝模型。為了適應(yīng)本文的方法和原論文之間不同框架的影響,我們比較了相對(duì)于未剪枝的大型模型的相對(duì)精度下降。例如,對(duì)于剪枝后的模型VGG-Conv為-1.23,即表示相對(duì)左側(cè)的71.03的精度下降,后者為原始論文中未剪枝的大型VGG-16的報(bào)告精度

表3:基于回歸的特征重建結(jié)果(準(zhǔn)確度)。與表2類似,我們比較了相對(duì)于未剪枝的大型模型的相對(duì)精度下降。

表4:網(wǎng)絡(luò)Slimming的結(jié)果(準(zhǔn)確度)“剪枝比”表示在整個(gè)網(wǎng)絡(luò)中,剪枝通道所占的總百分比。每種模型使用與原論文的相同比率。

表5:使用稀疏結(jié)構(gòu)選擇的殘余塊剪枝結(jié)果(準(zhǔn)確度)。在原始論文中不需要微調(diào),因此存在一個(gè)“剪枝”列,而不是“微調(diào)”列

表6:非結(jié)構(gòu)化剪枝的結(jié)果(準(zhǔn)確度)“剪枝比”表示在所有卷積權(quán)重集中,進(jìn)行剪枝的參數(shù)的比例。

表7:用于檢測(cè)任務(wù)的剪枝結(jié)果(mAP)。Prune-C指的是剪枝分類預(yù)訓(xùn)練的權(quán)重,Prune-D指的是在權(quán)重轉(zhuǎn)移到檢測(cè)任務(wù)后剪枝。 Scratch-E / B表示從頭開始訓(xùn)練分類剪枝模型,移至檢測(cè)任務(wù)。

總之,對(duì)于面向預(yù)定義目標(biāo)架構(gòu)的剪枝方法而言,使用與大型模型(Scratch-E)數(shù)量相同的迭代次數(shù)來(lái)訓(xùn)練小模型,通常就足以實(shí)現(xiàn)與三步輸出的模型相同的精度。再加上目標(biāo)架構(gòu)是預(yù)定義的,在實(shí)際應(yīng)用中,人們往往更愿意直接從頭開始訓(xùn)練小模型。

此外,如果具備與大型模型相當(dāng)?shù)挠?jì)算預(yù)算(算力)時(shí),從頭訓(xùn)練的模型的性能甚至可能微調(diào)模型更高。

討論與結(jié)論

我們建議,未來(lái)應(yīng)采用相對(duì)高性能的基線方法來(lái)評(píng)估剪枝方法,尤其是在預(yù)定義目標(biāo)的體系結(jié)構(gòu)剪枝。除了高精度之外,從頭開始訓(xùn)練預(yù)定義的目標(biāo)模型與傳統(tǒng)的網(wǎng)絡(luò)剪枝相比具有以下優(yōu)勢(shì):

? 由于模型較小,可以使用更少的GPU資源來(lái)訓(xùn)練模型,而且可能比訓(xùn)練原始大型模型速度更快。

? 無(wú)需實(shí)施剪枝的標(biāo)準(zhǔn)和流程,這些流程有時(shí)需要逐層微調(diào)和/或需要針對(duì)不同的網(wǎng)絡(luò)架構(gòu)進(jìn)行定制。

? 可以避免調(diào)整剪枝過(guò)程中涉及的其他超參數(shù)。

我們的結(jié)果可利用剪枝方法來(lái)尋找高效的架構(gòu)或稀疏模式,可以通過(guò)自動(dòng)剪枝方法來(lái)完成。此外,在有些情況下,傳統(tǒng)的剪枝方法比從頭開始訓(xùn)練要快得多,比如:

?已經(jīng)提供預(yù)訓(xùn)練的大型模型,且訓(xùn)練預(yù)算很少。

? 需要獲得不同大小的多個(gè)模型,在這種情況下,可以訓(xùn)練大型模型,然后以不同的比例剪枝。

總之,我們的實(shí)驗(yàn)表明,從頭開始訓(xùn)練小修剪模型幾乎總能達(dá)到與典型的“訓(xùn)練-剪枝-微調(diào)”流程獲得的模型相當(dāng)或更高的精度。這改變了我們對(duì)過(guò)度參數(shù)化的必要性的理解,進(jìn)一步證明了自動(dòng)剪枝算法的價(jià)值,可以用來(lái)尋找高效的架構(gòu),并為架構(gòu)設(shè)計(jì)提供指導(dǎo)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3464

    瀏覽量

    49815
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1221

    瀏覽量

    25195

原文標(biāo)題:清華&伯克利ICLR論文:重新思考6大剪枝方法

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    解讀CPU的組成指令架構(gòu)

    文章目錄腦圖視頻解讀CPU的組成指令架構(gòu): 復(fù)雜指令 (CISC) VS 精簡(jiǎn)指令 (RISC)X86架構(gòu)ARM
    發(fā)表于 07-30 06:20

    AVR架構(gòu)下的匯編語(yǔ)言常用指令

    下面是AVR架構(gòu)下的匯編語(yǔ)言常用指令,英語(yǔ)原版看起來(lái)會(huì)更容易理解,如下所示:上面是常用的指令,全部指令的使用方法可以在之類找到:
    發(fā)表于 11-23 09:10

    精簡(jiǎn)指令架構(gòu)RISC與復(fù)雜指令架構(gòu)CISC有何區(qū)別

    精簡(jiǎn)指令架構(gòu)RISC是什么?復(fù)雜指令架構(gòu)CISC又是什么?精簡(jiǎn)指令架構(gòu)RISC與復(fù)雜指令
    發(fā)表于 12-23 10:02

    基于Vague網(wǎng)絡(luò)安全態(tài)勢(shì)評(píng)估方法

    針對(duì)網(wǎng)絡(luò)安全態(tài)勢(shì)評(píng)估(NSSA)問(wèn)題,提出一種基于Vague的評(píng)估方法。首先,綜合攻防雙方對(duì)安全態(tài)勢(shì)的影響構(gòu)建評(píng)估指標(biāo)體系并給出指標(biāo)權(quán)重的計(jì)算方法;然后,建立基于Vague
    發(fā)表于 02-26 15:54 ?9次下載

    基于PC架構(gòu)網(wǎng)絡(luò)時(shí)延測(cè)量方法

    本內(nèi)容提供了基于PC架構(gòu)網(wǎng)絡(luò)時(shí)延測(cè)量方法
    發(fā)表于 06-29 16:22 ?28次下載
    基于PC<b class='flag-5'>架構(gòu)</b>的<b class='flag-5'>網(wǎng)絡(luò)</b>時(shí)延測(cè)量<b class='flag-5'>方法</b>

    一種改進(jìn)的神經(jīng)網(wǎng)絡(luò)相關(guān)性剪枝算法

    神經(jīng)網(wǎng)絡(luò)剪枝有利于網(wǎng)絡(luò)結(jié)構(gòu)的簡(jiǎn)化,而作為剪枝算法中的比較重要的相關(guān)性剪枝算法,在計(jì)算了隱層節(jié)點(diǎn)輸出的線性相關(guān)性和方差后,對(duì)于如何根據(jù)線性相
    發(fā)表于 05-14 11:54 ?0次下載

    基于影響度剪枝的ELM分類算法

    個(gè)數(shù),定義單個(gè)隱節(jié)點(diǎn)相對(duì)于整個(gè)網(wǎng)絡(luò)學(xué)習(xí)的影響度,根據(jù)影響度判斷隱節(jié)點(diǎn)的重要性并將其排序,采用與ELM網(wǎng)絡(luò)規(guī)模相匹配的剪枝步長(zhǎng)刪除冗余節(jié)點(diǎn),最后更新隱含層與輸入層和輸出層連接的權(quán)值向量。通過(guò)對(duì)多個(gè)UCI機(jī)器學(xué)習(xí)
    發(fā)表于 12-01 17:21 ?0次下載

    如何使用剪枝優(yōu)化與索引求交改進(jìn)Eclat算法

    待連接的項(xiàng)集數(shù)量以減少項(xiàng)連接操作,同時(shí)利用先驗(yàn)性質(zhì)對(duì)連接后的項(xiàng)進(jìn)行后剪枝處理;接著提出了一種基于事務(wù)索引的布爾數(shù)組求交方法,即通過(guò)將事務(wù)標(biāo)識(shí)作為索引來(lái)設(shè)置并檢索布爾數(shù)組,以獲得項(xiàng)
    發(fā)表于 12-19 11:44 ?2次下載
    如何使用<b class='flag-5'>剪枝</b>優(yōu)化與索引求交改進(jìn)Eclat算法

    基于深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)化剪枝算法

      現(xiàn)有結(jié)構(gòu)化剪枝算法通常運(yùn)用深度神經(jīng)網(wǎng)絡(luò)(DNN)的一階或者零階信息對(duì)通道進(jìn)行剪枝,為利用二階信息加快DNN網(wǎng)絡(luò)模型收斂速度,借鑒HAWQ算法思想提岀一種新的結(jié)構(gòu)化
    發(fā)表于 03-10 16:41 ?2次下載
    基于深度神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的結(jié)構(gòu)化<b class='flag-5'>剪枝</b>算法

    嵌入式設(shè)備的YOLO網(wǎng)絡(luò)剪枝算法

    為保證YoLO網(wǎng)絡(luò)在嵌入式設(shè)備上正常運(yùn)行,需采用剪枝算法精簡(jiǎn)濾波器以減小網(wǎng)絡(luò)存儲(chǔ)空間和計(jì)算量,而現(xiàn)有剪枝算法耗時(shí)較長(zhǎng)且剪枝精度較低。提出一種
    發(fā)表于 03-11 16:52 ?4次下載
    嵌入式設(shè)備的YOLO<b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>剪枝</b>算法

    神經(jīng)網(wǎng)絡(luò)模型剪枝后泛化能力的驗(yàn)證方案

    針對(duì)神經(jīng)網(wǎng)絡(luò)模型在剪枝操作中υr? opout率下調(diào)造成的過(guò)擬合冋題,提岀一種剪枝模型泛化能力的驗(yàn)證方法。硏究人為遮擋數(shù)據(jù)
    發(fā)表于 05-25 14:48 ?4次下載

    基于LZW編碼的卷積神經(jīng)網(wǎng)絡(luò)壓縮方法綜述

    針對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN)因參數(shù)量大難以移植到嵌入式平臺(tái)的問(wèn)題,提出基編碼的CNN壓縮方法。通過(guò)浮點(diǎn)轉(zhuǎn)定點(diǎn)和剪枝2種方法來(lái)壓縮模型容量。對(duì)權(quán)值進(jìn)行k- means聚類量化,并在此基礎(chǔ)上
    發(fā)表于 06-11 11:31 ?18次下載

    如何搭建VGG網(wǎng)絡(luò)實(shí)現(xiàn)Mnist數(shù)據(jù)的圖像分類

    如何搭建VGG網(wǎng)絡(luò),實(shí)現(xiàn)Mnist數(shù)據(jù)的圖像分類? 2 方法 步驟:
    的頭像 發(fā)表于 02-14 15:00 ?856次閱讀

    DepGraph:任意架構(gòu)的結(jié)構(gòu)化剪枝,CNN、Transformer、GNN等都適用!

    結(jié)構(gòu)化剪枝是一種重要的模型壓縮算法,它通過(guò)移除神經(jīng)網(wǎng)絡(luò)中冗余的結(jié)構(gòu)來(lái)減少參數(shù)量,從而降低模型推理的時(shí)間、空間代價(jià)。在過(guò)去幾年中,結(jié)構(gòu)化剪枝技術(shù)已經(jīng)被廣泛應(yīng)用于各種神經(jīng)網(wǎng)絡(luò)的加速,覆蓋了
    的頭像 發(fā)表于 03-29 11:23 ?5078次閱讀

    CVPR 2023:基于可恢復(fù)性度量的少樣本剪枝方法

    在少樣本壓縮場(chǎng)景中,塊級(jí)(block-level)剪枝在本質(zhì)上優(yōu)于濾波器級(jí)(filter-level)。在相同的延遲下,塊級(jí)剪枝可以保留更多原始模型的容量,其準(zhǔn)確性更容易通過(guò)微小的訓(xùn)練恢復(fù)。如圖 1 所示,丟棄塊在延遲-準(zhǔn)確性
    的頭像 發(fā)表于 05-10 14:56 ?1346次閱讀
    CVPR 2023:基于可恢復(fù)性度量的少樣本<b class='flag-5'>剪枝</b><b class='flag-5'>方法</b>
    主站蜘蛛池模板: 亚洲男人天堂网址 | 久草亚洲视频 | 久热国产精品 | 欧美成人性色xxxxx视频大 | 美女视频很黄很暴黄是免费的 | 鲁久久 | 天天天天添天天拍天天谢 | 日本三级香港三级人妇99 | 精品国产理论在线观看不卡 | 国产床戏无遮掩视频播放 | 人人搞人人爱 | 99精品国产在热久久 | 天天拍夜夜操 | 亚洲国产成人精彩精品 | 性生生活三级视频在线观看 | 日产毛片| 全部免费特黄特色大片视频 | 色婷婷综合激情视频免费看 | 一级片免费在线播放 | 亚洲成a人片8888kkkk | 国产传媒在线观看视频免费观看 | 好爽好大www视频在线播放 | 国产综合久久久久影院 | 色播影院性播影院私人影院 | 精品四虎免费观看国产高清 | 免费高清在线爱做视频 | 国产va精品免费观看 | 在线观看www日本免费网站 | 日本免费不卡在线一区二区三区 | 欧美一级看片a免费观看 | 四虎4444hu4影视最新地址 | 日本理论午夜中文字幕第一页 | 国产小毛片 | 中文字幕一区在线观看视频 | 1024手机看片你懂得的 日韩欧美 | 国产精品久久久久久久成人午夜 | 日韩毛片高清免费 | 天堂视频免费在线观看 | 日本在线视频二区 | 欧美成人伊人十综合色 | 亚洲狠狠色丁香婷婷综合 |