在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

傳統(tǒng)卷積運(yùn)算,有了一種全新的替代方法

DPVg_AI_era ? 來(lái)源:lp ? 2019-05-01 08:36 ? 次閱讀

Facebook AI、新加坡國(guó)立大學(xué)、360 人工智能研究院的研究人員提出一種新的卷積操作OctConv,可以直接替代傳統(tǒng)卷積,持續(xù)提高圖像和視頻識(shí)別任務(wù)的精度,同時(shí)降低內(nèi)存和計(jì)算成本。

傳統(tǒng)卷積運(yùn)算,有了一種全新的替代方法。

近日,F(xiàn)acebook AI、新加坡國(guó)立大學(xué)、360人工智能研究院的研究人員提出一種新的卷積操作——Octave Convolution (OctConv)。

論文地址:

https://export.arxiv.org/pdf/1904.05049

其中,論文一作陳云鵬現(xiàn)于新加坡國(guó)立大學(xué)讀博士,師從顏水成和馮佳時(shí),兩人也是這篇論文的作者。其他作者來(lái)自Facebook AI。

作者表示,OctConv 是一種即插即用的卷積單元,可以直接替代傳統(tǒng)的卷積,而無(wú)需對(duì)網(wǎng)絡(luò)架構(gòu)進(jìn)行任何調(diào)整。

在自然的圖像中,信息以不同的頻率傳遞,其中較高的頻率通常以精細(xì)的細(xì)節(jié)編碼,較低的頻率通常以全局結(jié)構(gòu)編碼。

類(lèi)似地,卷積層的輸出特征圖也可以看做是不同頻率的信息的混合。

在這項(xiàng)工作中,作者提出將混合特征映射根據(jù)其頻率進(jìn)行分解,并設(shè)計(jì)了一種全新的卷積運(yùn)算:Octave Convolution (OctConv),用以存儲(chǔ)和處理在較低空間分辨率下空間變化 “較慢” 的特征圖,從而降低了內(nèi)存和計(jì)算成本。

Octave 一詞表示 “八音階” 或 “八度”,音樂(lè)里降 8 個(gè)音階表示頻率減半。通過(guò)降低低頻特征的分辨率,從而節(jié)省內(nèi)存和計(jì)算。

實(shí)驗(yàn)表明,通過(guò)簡(jiǎn)單地用OctConv 替代卷積,我們可以持續(xù)提高圖像和視頻識(shí)別任務(wù)的精度,同時(shí)降低內(nèi)存和計(jì)算成本。

采用 OctConv 的 ResNet-152 僅用 22.2 GFLOPs 就能在 ImageNet 上實(shí)現(xiàn) 82.9% 的top-1 分類(lèi)精度。

完美替代傳統(tǒng)卷積,即插即用無(wú)需調(diào)參

卷積神經(jīng)網(wǎng)絡(luò) (CNNs) 在許多計(jì)算機(jī)視覺(jué)任務(wù)中都取得了顯著的成功,并且隨著最近的研究在降低密集模型參數(shù)和特征圖通道維數(shù)的固有冗余,它們的效率不斷提高。然而,CNN 生成的特征圖在空間維度上也存在大量冗余,其中每個(gè)位置獨(dú)立存儲(chǔ)自己的特征描述符,忽略了可以一起存儲(chǔ)和處理的相鄰位置之間的公共信息。

圖 1:(a) 動(dòng)機(jī)。視覺(jué)的空間頻率模型的相關(guān)研究表明,自然圖像可以分解為低空間頻率和高空間頻率兩個(gè)部分。(b) 卷積層的輸出圖也可以根據(jù)其空間頻率進(jìn)行分解和分組。(c) 所提出的多頻特征表示將平滑變化的低頻映射存儲(chǔ)在低分辨率張量中,以減少空間冗余。(d) 所提出的 Octave Convolution 直接作用于這個(gè)表示。它會(huì)更新每個(gè)組的信息,并進(jìn)一步支持組之間的信息交換。

如圖 1(a) 所示,自然圖像可以分解為描述平穩(wěn)變化結(jié)構(gòu)的低空間頻率分量和描述快速變化的精細(xì)細(xì)節(jié)的高空間頻率分量。

類(lèi)似地,我們認(rèn)為卷積層的輸出特征映射也可以分解為不同空間頻率的特征,并提出了一種新的多頻特征表示方法,將高頻和低頻特征映射存儲(chǔ)到不同的組中,如圖 1(b) 所示。因此,通過(guò)相鄰位置間的信息共享,可以安全地降低低頻組的空間分辨率,減少空間冗余,如圖 1(c) 所示。

為了適應(yīng)新的特征表示,我們提出 Octave Convolution (OctConv),它接收包含兩個(gè)頻率的特征映射,并直接從低頻映射中提取信息,而無(wú)需解碼回到高頻,如圖 1(d) 所示。

作為傳統(tǒng)卷積的替代,OctConv 消耗的內(nèi)存和計(jì)算資源都大大減少。此外,OctConv利用相應(yīng)的 (低頻) 卷積處理低頻信息,有效地?cái)U(kuò)大了原始像素空間的感受野,從而提高識(shí)別性能。

我們以一種通用的方式設(shè)計(jì) OctConv,使它成為卷積的替代,而且即插即用。由于OctConv 主要側(cè)重于處理多空間頻率的特征映射并減少其空間冗余,它與現(xiàn)有的方法是相交且互補(bǔ)的,現(xiàn)有的方法側(cè)重于構(gòu)建更好的 CNN 拓?fù)浣Y(jié)構(gòu),減少卷積特征映射中的信道冗余和密集模型參數(shù)中的冗余。

此外,與利用多尺度信息的方法不同,OctConv 可以很容易地部署為即插即用單元,以替代卷積,而不需要改變網(wǎng)絡(luò)結(jié)構(gòu)或需要超參數(shù)調(diào)優(yōu)。

我們的實(shí)驗(yàn)證明,通過(guò)簡(jiǎn)單地用 OctConv 代替?zhèn)鹘y(tǒng)卷積,可以持續(xù)提高流行的 2D CNN 模型的 ImageNet 圖像識(shí)別性能,包括 ResNet ResNeXt, DenseNet, MobileNet,以及 SE-Net。

采用 OctConv 的 Oct-ResNet-152 超過(guò)了手工設(shè)計(jì)的 state-of-the-art 網(wǎng)絡(luò),并且所需的內(nèi)存和計(jì)算成本更低。

我們的貢獻(xiàn)可以總結(jié)如下:

我們提出將卷積特征映射分解成不同空間頻率的兩個(gè)組,并分別以相應(yīng)的頻率處理不同的卷積,相隔一個(gè)八度 (octave)。由于可以降低低頻圖的分辨率,因此能夠節(jié)省存儲(chǔ)和計(jì)算。這也有助于每一層獲得更大的感受野,以捕獲更多的上下文信息。

我們?cè)O(shè)計(jì)了一種即插即用的運(yùn)算,名為 OctConv,用來(lái)代替?zhèn)鹘y(tǒng)的卷積運(yùn)算。OctConv直接對(duì)新的特征表示進(jìn)行運(yùn)算,減少了空間冗余。更重要的是,OctConv 在實(shí)踐中速度很快,達(dá)到了接近理論極限的加速。

我們廣泛研究了所提出的 OctConv 在用于圖像和視頻任務(wù)的各種骨干 CNN 上的特性,并獲得了顯著的性能提高,甚至可以與最好的 AutoML 網(wǎng)絡(luò)相媲美。

Octave Convolution:方法詳解

octave feature representation 減少了空間冗余,比原始表示更加緊湊。然而,由于輸入特征的空間分辨率不同,傳統(tǒng)卷積不能直接對(duì)這種表示進(jìn)行操作。

避免這個(gè)問(wèn)題的一種簡(jiǎn)單方法是將低頻部分上采樣到原始的空間分辨率,將它與連接起來(lái),然后進(jìn)行卷積,這將導(dǎo)致額外的計(jì)算和內(nèi)存開(kāi)銷(xiāo)。

為了充分利用緊湊的多頻特征表示,我們提出 Octave Convolution,它可以直接在分解張量上運(yùn)行,而不需要任何額外的計(jì)算或內(nèi)存開(kāi)銷(xiāo)。

傳統(tǒng)卷積(Vanilla Convolution)

表示一個(gè) k×k 卷積核,表示輸入張量和輸出張量。中的每個(gè) feature map 可以下面的公式計(jì)算:

式中 (p, q) 為位置坐標(biāo),

定義了一個(gè)局部鄰域。

Octave Convolution.

我們的設(shè)計(jì)目標(biāo)是有效地處理相應(yīng)頻率張量中的低頻和高頻分量,同時(shí)使我們的 Octave特征表示的高頻分量和低頻分量之間能夠有效地通信

設(shè) X, Y 為分解輸入和輸出張量。那么輸出的高頻和低頻特征映射將由 給出。

Octave Convolution 的設(shè)計(jì)細(xì)節(jié)。綠色箭頭表示信息更新,紅色箭頭表示兩個(gè)頻率之間的信息交換。

Octave Convolution kernel。k×k Octave 卷積核與普通卷積核等價(jià),即二者具有完全相同的參數(shù)量。

實(shí)驗(yàn)和評(píng)估

在實(shí)驗(yàn)和評(píng)估部分,我們驗(yàn)證了 Octave Convolution 在 2D 和 3D 網(wǎng)絡(luò)中的有效性和效率。

我們分別進(jìn)行了 ImageNet 上圖像分類(lèi)的研究,然后將其與目前最先進(jìn)的方法進(jìn)行了比較。

然后,我們用 Kinetics-400 和 dynamics 600 數(shù)據(jù)集,證明所提出的 OctConv 也適用于 3D CNN。

圖 4:ImageNet 上的結(jié)果

如圖 4 所示,采用 OctConv 的模型比基線(xiàn)模型更有效、更準(zhǔn)確。圖中每條線(xiàn)的黑色標(biāo)記表示不采用 OctConv 的相應(yīng)基線(xiàn)模型的精度。

表 2:ResNet-50 的結(jié)果

表 4:ImageNet 分類(lèi)精度

表 5:小型模型的 ImageNet 分類(lèi)精度

表 6:中型模型的 ImageNet 分類(lèi)精度

表 7:大型模型的 ImageNet 分類(lèi)精度

表 8:視頻動(dòng)作識(shí)別的結(jié)果

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4782

    瀏覽量

    101232
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    521

    瀏覽量

    38404
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1431

    瀏覽量

    55024

原文標(biāo)題:完美代替?zhèn)鹘y(tǒng)卷積!Facebook等提出全新卷積操作OctConv,速度接近理論極限

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    verilog實(shí)現(xiàn)卷積運(yùn)算

    在Verilog中實(shí)現(xiàn)卷積運(yùn)算,你可以使用以下示例代碼。這里假設(shè)輸入數(shù)據(jù)是符號(hào)8位數(shù),輸出數(shù)據(jù)也是符號(hào)8位數(shù)。卷積在數(shù)字信號(hào)處理中通常指
    發(fā)表于 03-26 07:51

    基于labview的卷積運(yùn)算

    就是信號(hào)與系統(tǒng)里面的相關(guān)運(yùn)算,比如卷積什么的可以用labview做嗎?
    發(fā)表于 03-09 14:33

    Nexar如何為FPGA設(shè)計(jì)提供一種全新方法

     本文概述開(kāi)發(fā)這種系統(tǒng)所必須面對(duì)的各種設(shè)計(jì)挑戰(zhàn),并講解了Altium公司的最新電子設(shè)計(jì)環(huán)境Nexar如何為FPGA設(shè)計(jì)提供一種全新方法。這種方法
    發(fā)表于 05-08 06:02

    一種伺服電機(jī)的控制方法

    本發(fā)明涉及機(jī)械控制技術(shù)領(lǐng)域,尤其涉及一種伺服電機(jī)的控制方法。背景技術(shù):隨著機(jī)械控制領(lǐng)域的高速發(fā)展,對(duì)于伺服電機(jī)的需要也日益增加,因此對(duì)于伺服 電機(jī)的控制已引起越來(lái)越多人的重視。目前傳統(tǒng)的伺服電機(jī)
    發(fā)表于 09-03 08:53

    利用卷積調(diào)制構(gòu)建一種新的ConvNet架構(gòu)Conv2Former

    1、利用卷積探索一種更高效的編碼空域特征的方式  本文旨在通過(guò)充分利用卷積探索一種更高效的編碼空域特征的方式:通過(guò)組合ConvNet與ViT的設(shè)計(jì)理念,本文利用
    發(fā)表于 12-19 17:37

    簡(jiǎn)談卷積—幽默笑話(huà)談卷積

    分享。據(jù)說(shuō)卷積這種運(yùn)算式物理學(xué)家發(fā)明的,在實(shí)際中用得不亦樂(lè)乎,而數(shù)學(xué)家卻直沒(méi)有把運(yùn)算的意義徹底搞明白。仔細(xì)品下,還是
    發(fā)表于 05-25 18:08

    一種全新的深亞微米IC設(shè)計(jì)方法

    一種全新的深亞微米IC設(shè)計(jì)方法 本文分析傳統(tǒng)IC設(shè)計(jì)流程存在的些缺陷,并且提出了
    發(fā)表于 12-27 13:28 ?727次閱讀
    <b class='flag-5'>一種</b><b class='flag-5'>全新</b>的深亞微米IC設(shè)計(jì)<b class='flag-5'>方法</b>

    一種級(jí)數(shù)混合運(yùn)算產(chǎn)生SPWM波新方法

    一種級(jí)數(shù)混合運(yùn)算產(chǎn)生SPWM波新方法_耿衛(wèi)東
    發(fā)表于 01-07 18:39 ?0次下載

    一種卷積神經(jīng)網(wǎng)絡(luò)和極限學(xué)習(xí)機(jī)相結(jié)合的人臉識(shí)別方法_余丹

    一種卷積神經(jīng)網(wǎng)絡(luò)和極限學(xué)習(xí)機(jī)相結(jié)合的人臉識(shí)別方法_余丹
    發(fā)表于 01-08 11:20 ?0次下載

    一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)方法

    為了在行人檢測(cè)任務(wù)中使卷積神經(jīng)網(wǎng)絡(luò)(CNN)選擇出更優(yōu)模型并獲得定位更準(zhǔn)確的檢測(cè)框,提出一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)方法。改進(jìn)主要涉及兩個(gè)方面:如何決定CNN樣本迭代學(xué)習(xí)次數(shù)和
    發(fā)表于 12-01 15:23 ?0次下載
    <b class='flag-5'>一種</b>改進(jìn)的基于<b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)<b class='flag-5'>方法</b>

    一種基于深度學(xué)習(xí)的焊點(diǎn)位置檢測(cè)方法

    的問(wèn)題,提出一種基于深度學(xué)習(xí)的焊點(diǎn)位置檢測(cè)方法。引入 Mobilenetv2的卷積結(jié)構(gòu)代替 YOLOV2的卷積層,并借鑒YOLOⅴ2的細(xì)粒度特征的
    發(fā)表于 03-17 11:18 ?9次下載
    <b class='flag-5'>一種</b>基于深度學(xué)習(xí)的焊點(diǎn)位置檢測(cè)<b class='flag-5'>方法</b>

    一種輕量級(jí)時(shí)間卷積網(wǎng)絡(luò)設(shè)計(jì)方案

    時(shí)間卷積網(wǎng)絡(luò)(TCN)在處理時(shí)間序列預(yù)測(cè)問(wèn)題時(shí)存在計(jì)算量大和參數(shù)冗余問(wèn)題,導(dǎo)致其難以應(yīng)用于存儲(chǔ)空間和計(jì)算能力受限的手機(jī)、平板電腦、筆記本電腦等移動(dòng)終端。為此,設(shè)計(jì)一種輕量級(jí)時(shí)間卷積網(wǎng)絡(luò)(L-TCN
    發(fā)表于 03-22 16:04 ?6次下載
    <b class='flag-5'>一種</b>輕量級(jí)時(shí)間<b class='flag-5'>卷積</b>網(wǎng)絡(luò)設(shè)計(jì)方案

    一種基于DSCNN-BILSTM的入侵檢測(cè)方法

    針對(duì)傳統(tǒng)的入侵檢測(cè)方法無(wú)法有效提取網(wǎng)絡(luò)流量數(shù)據(jù)特征的問(wèn)題,提出了一種基于 DSCNN- BILSTM的入侵檢測(cè)方法,該方法引入了深度可分離
    發(fā)表于 04-16 15:41 ?14次下載
    <b class='flag-5'>一種</b>基于DSCNN-BILSTM的入侵檢測(cè)<b class='flag-5'>方法</b>

    卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)方法哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類(lèi)、目標(biāo)檢測(cè)、語(yǔ)義分割等計(jì)算機(jī)視覺(jué)任務(wù)。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的分類(lèi)
    的頭像 發(fā)表于 07-03 09:40 ?566次閱讀

    圖像處理中的卷積運(yùn)算

    卷積運(yùn)算是圖像處理中一種極其重要的操作,廣泛應(yīng)用于圖像濾波、邊緣檢測(cè)、特征提取等多個(gè)方面。它基于個(gè)核(或稱(chēng)為卷積核、濾波器)與圖像進(jìn)行相乘
    的頭像 發(fā)表于 07-11 15:15 ?2710次閱讀
    主站蜘蛛池模板: 69日本人xxxxxxxx18 | 在线观看高清免费播放 | 天天躁日日躁狠狠躁中文字幕老牛 | 天天在线天天看成人免费视频 | 日本欧美强乱视频在线 | 色吧首页 | 夜夜精品视频一区二区 | 午夜影视啪啪免费体验区入口 | 天天做天天爱天天做天天吃中 | 免费网站看黄 | 特黄特色的大片观看免费视频 | 黄色欧美 | 色五月婷婷成人网 | 国产亚洲视频在线播放大全 | 神马影院午夜dy888 | 美女一级毛片免费观看 | 久久夜色精品国产亚洲噜噜 | 欧美性生活一级 | 永久免费看的啪啪网站 | cao草棚视频网址成人 | 一女被两男吃奶玩乳尖口述 | 午夜五月天| 一级特黄aaa大片在线观看视频 | se97se成人亚洲网站在线观看 | 亚洲成a人一区二区三区 | 免费在线观看一区二区 | 天堂网av2014| 亚洲国产系列 | 美女张开腿露尿口给男人亲 | 羞羞爱爱 | 成年网站在线在免费播放 | 亚洲成人在线网站 | 亚洲香蕉视频 | 毛片网在线 | 国产精品久久久久久免费播放 | 欧美精品一区视频 | 婷婷色婷婷 | 国产色婷婷精品综合在线观看 | 一区不卡视频 | 国产人人澡| 国模沟沟一区二区三区 |