近日,南開大學(xué)、牛津大學(xué)和加州大學(xué)默塞德分校的研究人員共同提出了一種面向目標(biāo)檢測任務(wù)的新模塊Res2Net,新模塊可以和現(xiàn)有其他優(yōu)秀模塊輕松整合,在不增加計算負載量的情況下,在ImageNet、CIFAR-100等數(shù)據(jù)集上的測試性能超過了ResNet。
2015年,由何愷明等四位華人所提出的ResNet一戰(zhàn)成名,可極快的加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。
而近日,由南開大學(xué)、牛津大學(xué)和加州大學(xué)默塞德分校的研究人員共同提出的Res2Net,可以和現(xiàn)有其他優(yōu)秀模塊輕松整合:在不增加計算負載量的情況下,在ImageNet、CIFAR-100等數(shù)據(jù)集上的測試性能超過了ResNet。
論文地址:
https://arxiv.org/pdf/1904.01169.pdf
關(guān)于代表性計算機視覺任務(wù)的進一步消融研究和實驗結(jié)果,即目標(biāo)檢測,類激活 mapping和顯著目標(biāo)檢測,進一步驗證了Res2Net相對于現(xiàn)有技術(shù)的基線方法的優(yōu)越性。
面向視覺任務(wù)的多尺度表示對于目標(biāo)檢測、語義分割和顯著目標(biāo)檢測任務(wù)具有重大意義。通過CNN新模塊Res2Net,能夠?qū)崿F(xiàn)與比以往優(yōu)秀的基于CNNbackbone的模型(如ResNet,ResNeXt和DLA)更好的性能表現(xiàn)。
Res2Net:計算負載不增加,特征提取能力更強大
在多個尺度上表示特征對于許多視覺任務(wù)非常重要。卷積神經(jīng)網(wǎng)絡(luò)(CNN) backbone 的最新進展不斷展示出更強的多尺度表示能力,從而在廣泛的應(yīng)用中實現(xiàn)一致的性能提升。然而,大多數(shù)現(xiàn)有方法以分層方式(layer-wise)表示多尺度特征。
在本文中,研究人員在一個單個殘差塊內(nèi)構(gòu)造分層的殘差類連接,為CNN提出了一種新的構(gòu)建模塊,即Res2Net——以更細粒度(granular level)表示多尺度特征,并增加每個網(wǎng)絡(luò)層的感受野(receptive fields)范圍。
上圖中,左側(cè)為CNN網(wǎng)絡(luò)架構(gòu)的基本構(gòu)成,右側(cè)為本文新提出的Res2Net模塊。新模塊具備更強的多規(guī)模特征提取能力,但計算負載量與左側(cè)架構(gòu)類似。具體而言,新模塊用一個較小的3×3過濾器取代了過濾器組,同時可以將不同的過濾器組以層級殘差式風(fēng)格連接。模塊內(nèi)部的連接形式與殘差網(wǎng)絡(luò)(ResNet)類似,故命名為Res2Net。
與其他現(xiàn)有模塊的整合
本文所提出的Res2Net模塊可以融合到最先進的backbone CNN模型中,例如ResNet,ResNeXt和DLA。研究人員在所有這些模型上評估 Res2Net 模塊,并在廣泛使用的數(shù)據(jù)集(例如CIFAR-100和ImageNet)上展示相對于基線模型的一致性能提升。
由于單獨的Res2Net模塊對于整體網(wǎng)絡(luò)結(jié)構(gòu)沒有特定的要求,Res2Net模塊的多尺度表示能力也和CNN的分層特征聚合模型彼此獨立,所以可以很容易地將Res2Net模塊集成到現(xiàn)有的其他優(yōu)秀CNN模型中。比如ResNet,ResNeXt 和DLA 等。集成后的模型可稱為Res2Net,Res2NeXt,和Res2Net-DLA。
Res2Net模塊性能及測試結(jié)果
ImageNet數(shù)據(jù)集測試結(jié)果
ImageNet數(shù)據(jù)集Top1和Top5測試結(jié)果
Res2Net-50在ImageNet數(shù)據(jù)集不同規(guī)模測試錯誤率結(jié)果。其中參數(shù)w為過濾器寬度,s為scale
CIFAR-100數(shù)據(jù)集測試結(jié)果
CIFAR-100數(shù)據(jù)集Top1錯誤率,以及模型大小
CIFAR-100數(shù)據(jù)集不同模型大小下的檢測準(zhǔn)確率
ResNet-50和Res2Net-50的類激活映射可視化對比
ResNet-101 和Res2Net-101的語義分割結(jié)果的可視化對比
ResNet-50 和Res2Net-50的顯著目標(biāo)檢測結(jié)果對比(圖7)
結(jié)論及未來方向
Res2Net結(jié)構(gòu)簡單,性能優(yōu)秀,可以進一步探索CNN在更細粒度級別的多尺度表示能力。 Res2Net揭示了一個新的維度,即“尺度”(Scale),除了深度,寬度和基數(shù)的現(xiàn)有維度之外,“規(guī)模”是一個必不可少的更有效的因素。
Res2Net模塊可以很容易地與現(xiàn)有的最新模塊整合。對CIFAR100和ImageNet基準(zhǔn)測試的圖像分類結(jié)果表明,使用Res2Net模塊的網(wǎng)絡(luò)始終在與對手的競爭中表現(xiàn)出更優(yōu)秀的性能,這些對手包括ResNet,ResNeXt,DLA等。
Res2Net性能上的優(yōu)越性已經(jīng)在幾個具有代表性的計算機視覺任務(wù)體現(xiàn)出來,包括類激活映射,對象檢測和顯著對象檢測等。多尺度表示對于未來開拓更廣泛的應(yīng)用領(lǐng)域至關(guān)重要。
本文相關(guān)源代碼將在論文被收稿后公開發(fā)布。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4806瀏覽量
102706 -
計算機視覺
+關(guān)注
關(guān)注
9文章
1706瀏覽量
46554 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1222瀏覽量
25268
原文標(biāo)題:超越ResNet:南開提出Res2Net,不增計算負載,性能全面升級!
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
美國普渡大學(xué)和哈佛大學(xué)的研究人員推出了一項新發(fā)明 新...
一種基于圖像平移的目標(biāo)檢測框架
一種專門用于檢測小目標(biāo)的框架Dilated Module
一種改進運動目標(biāo)檢測算法的研究與應(yīng)用
研究人員提出了一種柔性可拉伸擴展的多功能集成傳感器陣列

實驗室的最新工作——Res2Net,一種在目標(biāo)檢測任務(wù)中新的Backbone網(wǎng)絡(luò)模塊

以色列研究人員開發(fā)出了一種能夠識別不同刺激的新型傳感系統(tǒng)
研究人員們提出了一系列新的點云處理模塊

JD和OPPO的研究人員們提出了一種姿勢引導(dǎo)的時尚圖像生成模型
Facebook的研究人員提出了Mesh R-CNN模型

普渡大學(xué)的研究人員正在開發(fā)一種綜合醫(yī)療傳感平臺
研究人員推出了一種新的基于深度學(xué)習(xí)的策略
研究人員提出了一個名為CommPlan的框架
馬來西亞研究人員提出一種評估光伏模塊不同冷卻系統(tǒng)有效性的新方法
MIT研究人員提出了一種制造軟氣動執(zhí)行器的新方法

評論