最后是O2OGM模塊,將Conv6-3提取的顯著性目標(biāo)特征信息與Conv2-2提取的邊緣特征結(jié)合后的特征分別與Conv3-3、Conv4-3、Conv5-3、Conv6-3每層提取的顯著性目標(biāo)特征進(jìn)行融合,即圖中FF模塊的操作。FF操作很簡單,就是將高層特征上采樣然后進(jìn)行拼接的操作,就可以達(dá)到融合的效果。
PFANet的結(jié)構(gòu)相對簡單,采用VGG網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),然后將前兩層特征稱為低層特征,后三層特征稱為高層特征,對他們采用了不同的方式進(jìn)行特征增強(qiáng),以增強(qiáng)檢測效果。
首先是對于高層特征,先是采用了一個(gè)CPFE來增大感受野,然后再接一個(gè)通道注意力模塊,即完成了對高層特征的特征增強(qiáng)(這里的這個(gè)CPFE,其實(shí)就是ASPP)。
然后再對經(jīng)過了CPFE后的高層特征使用通道注意力(CA)。
以上即是高層特征的增強(qiáng)方法,而對于低層特征,處理得則更為簡單,只需要使用空間注意力模塊(SA),即可完成。
整個(gè)PFANet的網(wǎng)絡(luò)結(jié)構(gòu)很清晰,如下圖所示。
介紹完EGNet和PFANet兩種方法以后,就剩下SINet了。SINet的思路來自于19年的一篇CVPR的文章《.Cascaded partial decoder for fast and accurate salient object detection》。這篇文章里提出了CPD的這樣一個(gè)結(jié)構(gòu),具體的可以取搜索一下這篇論文,詳細(xì)了解一下。
接下來我將介紹一個(gè)用于偽裝目標(biāo)檢測的網(wǎng)絡(luò)SINet。假設(shè)你是一頭饑腸轆轆的雄獅,此刻你掃視著周圍,視線突然里出現(xiàn)了兩匹斑馬,他們就是你今天的獵物,美食。確定好了目標(biāo)之后,那么就開始你的獵殺時(shí)刻。所以整個(gè)過程是你先掃視周圍,我們稱之為搜索,然后,就是確認(rèn)目標(biāo),開始獵殺,我們稱之為確認(rèn)。我們的SINet就是這樣的一個(gè)結(jié)構(gòu),他分為搜索和確認(rèn)兩個(gè)模塊,前者用于搜索偽裝目標(biāo),后者用于精確定位去檢測他。
我們現(xiàn)在就具體來看看我們的SINet到底是怎么一回事。首先,我們都知道低層特征有著較多的空間細(xì)節(jié),而我們的高層特征,卻有著較多的語義信息。所以低層的特征我們可以用來構(gòu)建目標(biāo)區(qū)域,而高層特征我們則可以用來進(jìn)行目標(biāo)定位。我們將這樣一張圖片,經(jīng)過一個(gè)ResNet的特征提取器。按照我們剛才的說法,于是我們將前兩層稱為低層特征,最后兩層稱之為高層特征,而第三層我們稱之為中層特征。那么有了這樣的五層特征圖,東西已經(jīng)給我們了?我們該怎么去利用好這些東西呢?
首先是我們的搜索模塊,通過特征提取,我們得到了這么一些特征,我們希望能夠從這些特征中搜索到我們想要的東西。那我們想要的是什么呢?自然就是我們的偽裝線索了。所以我們需要對我們的特征們做一些增強(qiáng)的處理,來幫助我們完成搜索的這樣一個(gè)任務(wù)。而我們用到的方法就是RF。我們來看一下具體是怎么樣實(shí)現(xiàn)的。首先我們把整個(gè)模塊分為5個(gè)分支,這五個(gè)分支都進(jìn)行了1×1的卷積降維,我們都知道,空洞卷積的提出,其目的就是為了增大感受野,所以我們對第一個(gè)分支進(jìn)行空洞數(shù)為3的空洞卷積,對第二個(gè)分支進(jìn)行空洞數(shù)為5的空洞卷積,對第3個(gè)分支進(jìn)行空洞數(shù)為7的空洞卷積,然后將前四個(gè)分支的特征圖拼接起來,這時(shí)候,我們再采用一個(gè)1×1卷積降維的操作,與第五個(gè)分支進(jìn)行相加的操作,最后輸出增強(qiáng)后的特征圖。
這個(gè)RF的結(jié)構(gòu)來自于ECCV2018的一篇論文《 Receptive field block net for accurate and fast object detection》,其作用就是幫助我們獲得足夠的感受野。
我們用RF對感受野增大來進(jìn)行搜索,那么搜索過后,我們得到了增強(qiáng)后的候選特征。我們要從候選特征得到我們最后要的偽裝目標(biāo)的檢測結(jié)果,這里我們用到的方法是PDC模塊(即是部分解碼組件)。
具體操作是這樣的,所以接下來就應(yīng)該是對它們進(jìn)行處理了逐元素相乘方式來減少相鄰特征之間的差距。我們把RF增強(qiáng)后的特征圖作為輸入,輸入到網(wǎng)絡(luò)里面。首先對低層的進(jìn)行一個(gè)上采樣,然后進(jìn)行3×3的卷積操作(這里面包含了卷積層,BN層還有Relu層),然后與更高一層的特征圖進(jìn)行乘法的這樣一個(gè)操作,我們?yōu)槭裁词褂弥鹪叵喑四兀恳驗(yàn)橹鹪叵喑朔绞侥軠p少相鄰特征之間的差距。然后我們再與輸入的低層特征進(jìn)行拼接。
我們前面提到了,我們利用增強(qiáng)后的特征通過PDC得到了我們想要得到的檢測結(jié)果,但這樣的一個(gè)結(jié)果足夠精細(xì)嗎?其實(shí),這樣得到的檢測結(jié)果是比較粗略的。這是為什么呢?這是因?yàn)槲覀兊奶卣髦g并不是有和偽裝檢測不相關(guān)的特征?對于這樣的多余的特征,我們要消滅掉。我們將前面得到的檢測圖稱之為,而我們要得到精細(xì)的結(jié)果圖,就得使用我們的注意力機(jī)制了。這里我們引入了搜索注意力,具體是怎么實(shí)現(xiàn)的呢?大家想一想我們前面把特征分成了低層特征、高層特征還有中層特征。我們平時(shí)一般都叫低層特征和高層特征,很少有提到中層特征的。其實(shí)我們這里這樣叫,是有打算的,我們認(rèn)為中層特征他既不像低層特征那么淺顯,也不像高層特征那樣抽象,所以我們對他進(jìn)行一個(gè)卷積操作(但是我們的卷積核用的是高斯核函數(shù)方差取32,核的尺寸我們?nèi)?,我們學(xué)過數(shù)字圖像處理,都知道這樣的一個(gè)操作能起到一個(gè)濾波的作用,我們的不相關(guān)特征能被過濾掉)但是有同學(xué)就會(huì)問了,那你這樣一過濾,有用的特征不也過濾掉了嗎?基于這樣的考慮,我們把過濾后的特征圖與剛才的這個(gè)再來做一個(gè)函數(shù),什么函數(shù)呢?就是一個(gè)最大化函數(shù),這樣我們不就能來突出偽裝圖初始的偽裝區(qū)域了嗎?
SINet整體的框架如圖所示:
講了這么多,我們最后來看看實(shí)驗(yàn)的效果,通過對這三篇文章的復(fù)現(xiàn),我得到了下面的這樣一些結(jié)果。
可以看出,在精度指標(biāo)的評價(jià)方面,SINet相比于其他兩種方法都有很大提升,而PFANet模型結(jié)構(gòu)雖然很簡單,但他的效果也是最差的。
下面我們再看看可視化的效果:
責(zé)任編輯:lq
-
模塊
+關(guān)注
關(guān)注
7文章
2742瀏覽量
47854 -
檢測
+關(guān)注
關(guān)注
5文章
4524瀏覽量
91852 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5522瀏覽量
121681
原文標(biāo)題:詳解基于深度學(xué)習(xí)的偽裝目標(biāo)檢測
文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型
NPU在深度學(xué)習(xí)中的應(yīng)用
GPU深度學(xué)習(xí)應(yīng)用案例
慧視小目標(biāo)識(shí)別算法 解決目標(biāo)檢測中的老大難問題

深度學(xué)習(xí)在工業(yè)機(jī)器視覺檢測中的應(yīng)用
基于深度學(xué)習(xí)的無人機(jī)檢測與識(shí)別技術(shù)
基于AI深度學(xué)習(xí)的缺陷檢測系統(tǒng)
深度學(xué)習(xí)在視覺檢測中的應(yīng)用
基于深度學(xué)習(xí)的小目標(biāo)檢測
深度學(xué)習(xí)模型訓(xùn)練過程詳解
深入了解目標(biāo)檢測深度學(xué)習(xí)算法的技術(shù)細(xì)節(jié)

深度解析深度學(xué)習(xí)下的語義SLAM

深度學(xué)習(xí)檢測小目標(biāo)常用方法

陸基條件下典型地物和偽裝光譜影響因子分析1.0

評論