在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

目標檢測:Faster RCNN算法詳解

ss ? 來源:shenxiaolu1984 ? 作者:shenxiaolu1984 ? 2021-01-13 16:25 ? 次閱讀

本文是繼RCNN[1],fast RCNN[2]之后,目標檢測界的領軍人物Ross Girshick團隊在2015年的又一力作。簡單網絡目標檢測速度達到17fps,在PASCAL VOC上準確率為59.9%;復雜網絡達到5fps,準確率78.8%。

作者在github上給出了基于matlabpython的源碼。對Region CNN算法不了解的同學,請先參看這兩篇文章:《RCNN算法詳解》,《fast RCNN算法詳解》。

思想

從RCNN到fast RCNN,再到本文的faster RCNN,目標檢測的四個基本步驟(候選區域生成,特征提取,分類,位置精修)終于被統一到一個深度網絡框架之內。所有計算沒有重復,完全在GPU中完成,大大提高了運行速度。

faster RCNN可以簡單地看做“區域生成網絡+fast RCNN“的系統,用區域生成網絡代替fast RCNN中的Selective Search方法。本篇論文著重解決了這個系統中的三個問題:

如何設計區域生成網絡

如何訓練區域生成網絡

如何讓區域生成網絡和fast RCNN網絡共享特征提取網絡

區域生成網絡:結構

基本設想是:在提取好的特征圖上,對所有可能的候選框進行判別。由于后續還有位置精修步驟,所以候選框實際比較稀疏。

特征提取

原始特征提取(上圖灰色方框)包含若干層conv+relu,直接套用ImageNet上常見的分類網絡即可。本文試驗了兩種網絡:5層的ZF[3],16層的VGG-16[[^-4]],具體結構不再贅述。

額外添加一個conv+relu層,輸出5139256維特征(feature)。

候選區域(anchor)

特征可以看做一個尺度5139的256通道圖像,對于該圖像的每一個位置,考慮9個可能的候選窗口:三種面積{ 12 8 2 , 25 6 2 , 51 2 2 } × \{128^2, 256^2, 512^2 \}\times{1282,2562,5122}×三種比例{ 1 : 1 , 1 : 2 , 2 : 1 } \{ 1:1, 1:2, 2:1\}{1:1,1:2,2:1}。這些候選窗口稱為anchors。下圖示出5139個anchor中心,以及9種anchor示例。

在整個faster RCNN算法中,有三種尺度。

原圖尺度:原始輸入的大小。不受任何限制,不影響性能。

歸一化尺度:輸入特征提取網絡的大小,在測試時設置,源碼中opts.test_scale=600。anchor在這個尺度上設定。這個參數和anchor的相對大小決定了想要檢測的目標范圍。

網絡輸入尺度:輸入特征檢測網絡的大小,在訓練時設置,源碼中為224*224。

窗口分類和位置精修

分類層(cls_score)輸出每一個位置上,9個anchor屬于前景和背景的概率;窗口回歸層(bbox_pred)輸出每一個位置上,9個anchor對應窗口應該平移縮放的參數。

對于每一個位置來說,分類層從256維特征中輸出屬于前景和背景的概率;窗口回歸層從256維特征中輸出4個平移縮放參數。

就局部來說,這兩層是全連接網絡;就全局來說,由于網絡在所有位置(共51*39個)的參數相同,所以實際用尺寸為1×1的卷積網絡實現。

實際代碼中,將51399個候選位置根據得分排序,選擇最高的一部分,再經過Non-Maximum Suppression獲得2000個候選結果。之后才送入分類器和回歸器。

所以Faster-RCNN和RCNN, Fast-RCNN一樣,屬于2-stage的檢測算法。

區域生成網絡:訓練

樣本

考察訓練集中的每張圖像:

a. 對每個標定的真值候選區域,與其重疊比例最大的anchor記為前景樣本

b. 對a)剩余的anchor,如果其與某個標定重疊比例大于0.7,記為前景樣本;如果其與任意一個標定的重疊比例都小于0.3,記為背景樣本

c. 對a),b)剩余的anchor,棄去不用。

d. 跨越圖像邊界的anchor棄去不用

代價函數

同時最小化兩種代價:

a. 分類誤差

b. 前景樣本的窗口位置偏差

具體參看fast RCNN中的“分類與位置調整”段落。

超參數

原始特征提取網絡使用ImageNet的分類樣本初始化,其余新增層隨機初始化。

每個mini-batch包含從一張圖像中提取的256個anchor,前景背景樣本1:1.

前60K迭代,學習率0.001,后20K迭代,學習率0.0001。

momentum設置為0.9,weight decay設置為0.0005。[4]

共享特征

區域生成網絡(RPN)和fast RCNN都需要一個原始特征提取網絡(下圖灰色方框)。這個網絡使用ImageNet的分類庫得到初始參數W 0 W_0W0?,但要如何精調參數,使其同時滿足兩方的需求呢?本文講解了三種方法。

輪流訓練

a. 從W 0 W_0W0?開始,訓練RPN。用RPN提取訓練集上的候選區域

b. 從W 0 W_0W0?開始,用候選區域訓練Fast RCNN,參數記為W 1 W_1W1?

c. 從W 1 W_1W1?開始,訓練RPN…

具體操作時,僅執行兩次迭代,并在訓練時凍結了部分層。論文中的實驗使用此方法。

如Ross Girshick在ICCV 15年的講座Training R-CNNs of various velocities中所述,采用此方法沒有什么根本原因,主要是因為”實現問題,以及截稿日期“。

近似聯合訓練

直接在上圖結構上訓練。在backward計算梯度時,把提取的ROI區域當做固定值看待;在backward更新參數時,來自RPN和來自Fast RCNN的增量合并輸入原始特征提取層。

此方法和前方法效果類似,但能將訓練時間減少20%-25%。公布的python代碼中包含此方法。

聯合訓練

直接在上圖結構上訓練。但在backward計算梯度時,要考慮ROI區域的變化的影響。推導超出本文范疇,請參看15年NIP論文[5]。

實驗

除了開篇提到的基本性能外,還有一些值得注意的結論

與Selective Search方法(黑)相比,當每張圖生成的候選區域從2000減少到300時,本文RPN方法(紅藍)的召回率下降不大。說明RPN方法的目的性更明確。

使用更大的Microsoft COCO庫[6]訓練,直接在PASCAL VOC上測試,準確率提升6%。說明faster RCNN遷移性良好,沒有over fitting。

Girshick, Ross, et al. “Rich feature hierarchies for accurate object detection and semantic segmentation.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2014. ??

Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015. ??

M. D. Zeiler and R. Fergus, “Visualizing and understanding convolutional neural networks,” in European Conference on Computer Vision (ECCV), 2014. ??

learning rate-控制增量和梯度之間的關系;momentum-保持前次迭代的增量;weight decay-每次迭代縮小參數,相當于正則化。 ??

Jaderberg et al. “Spatial Transformer Networks”

NIPS 2015 ??

30萬+圖像,80類檢測庫。

責任編輯:xj

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 目標檢測
    +關注

    關注

    0

    文章

    211

    瀏覽量

    15664
  • 深度學習
    +關注

    關注

    73

    文章

    5516

    瀏覽量

    121553
收藏 人收藏

    評論

    相關推薦

    采用華為云 Flexus 云服務器 X 實例部署 YOLOv3 算法完成目標檢測

    一、前言 1.1 開發需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務器 X 實例部署 YOLOv3 算法,完成圖像分析、目標檢測。 隨著計算機視覺技術的飛速發展,深度學習模型如
    的頭像 發表于 01-02 12:00 ?121次閱讀
    采用華為云 Flexus 云服務器 X 實例部署 YOLOv3 <b class='flag-5'>算法</b>完成<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    并非易事,它涉及到從選擇合適的算法架構到針對特定硬件平臺進行優化等一系列復雜的工作。 接下來,我們將詳細介紹如何在資源受限的邊緣設備上成功部署目標檢測模型,探索其背后的原理和技術,并討論解決該領域內常見
    發表于 12-19 14:33

    在樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    目標檢測在計算機視覺領域中具有重要意義。YOLOv5(You Only Look One-level)是目標檢測算法中的一種代表性方法,以其高效性和準確性備受關注,并且在各種
    的頭像 發表于 11-11 10:38 ?1468次閱讀
    在樹莓派上部署YOLOv5進行動物<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的完整流程

    目標檢測中大物體的重要性

    ,中等物體提高2個百分點,大物體提高4個百分點)。摘要目標檢測模型是一類重要的機器學習算法,旨在識別并精確定位圖像或視頻中的物體。然而,由于物體的大小差異以及用
    的頭像 發表于 10-09 08:05 ?509次閱讀
    在<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>中大物體的重要性

    圖像分割與目標檢測的區別是什么

    圖像分割與目標檢測是計算機視覺領域的兩個重要任務,它們在許多應用場景中都發揮著關鍵作用。然而,盡管它們在某些方面有相似之處,但它們的目標、方法和應用場景有很大的不同。本文將介紹圖像分割與目標
    的頭像 發表于 07-17 09:53 ?1516次閱讀

    目標檢測與識別技術有哪些

    目標檢測與識別技術是計算機視覺領域的重要研究方向,廣泛應用于安全監控、自動駕駛、醫療診斷、工業自動化等領域。 目標檢測與識別技術的基本概念 目標
    的頭像 發表于 07-17 09:40 ?749次閱讀

    目標檢測與識別技術的關系是什么

    目標檢測與識別技術是計算機視覺領域的兩個重要研究方向,它們之間存在著密切的聯系和相互依賴的關系。 一、目標檢測與識別技術的概念 目標
    的頭像 發表于 07-17 09:38 ?781次閱讀

    目標檢測識別主要應用于哪些方面

    目標檢測識別是計算機視覺領域的一個重要研究方向,它主要關注于從圖像或視頻中識別和定位目標物體。隨著計算機視覺技術的不斷發展,目標檢測識別已經
    的頭像 發表于 07-17 09:34 ?1243次閱讀

    慧視小目標識別算法 解決目標檢測中的老大難問題

    隨著深度學習和人工智能技術的興起與技術成熟,一大批如FasterR-CNN、RetinaNet、YOLO等可以在工業界使用的目標檢測算法已逐步成熟并進入實際應用,大多數場景下的目標檢測
    的頭像 發表于 07-17 08:29 ?577次閱讀
    慧視小<b class='flag-5'>目標</b>識別<b class='flag-5'>算法</b>   解決<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>中的老大難問題

    基于深度學習的小目標檢測

    在計算機視覺領域,目標檢測一直是研究的熱點和難點之一。特別是在小目標檢測方面,由于小目標在圖像中所占比例小、特征不明顯,使得
    的頭像 發表于 07-04 17:25 ?1059次閱讀

    機器學習算法原理詳解

    機器學習作為人工智能的一個重要分支,其目標是通過讓計算機自動從數據中學習并改進其性能,而無需進行明確的編程。本文將深入解讀幾種常見的機器學習算法原理,包括線性回歸、邏輯回歸、支持向量機(SVM)、決策樹和K近鄰(KNN)算法,探
    的頭像 發表于 07-02 11:25 ?1363次閱讀

    人員跌倒識別檢測算法

    人員跌倒識別檢測算法是基于視頻的檢測方法,通過對目標人體監測,當目標人體出現突然倒地行為時,自動監測并觸發報警。人員跌倒識別檢測算法基于計算
    的頭像 發表于 06-30 11:47 ?518次閱讀
    人員跌倒識別<b class='flag-5'>檢測算法</b>

    深入了解目標檢測深度學習算法的技術細節

    本文將討論目標檢測的基本方法(窮盡搜索、R-CNN、FastR-CNN和FasterR-CNN),并嘗試理解每個模型的技術細節。為了讓經驗水平各不相同的讀者都能夠理解,文章不會使用任何公式來進行講解
    的頭像 發表于 04-30 08:27 ?392次閱讀
    深入了解<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>深度學習<b class='flag-5'>算法</b>的技術細節

    目標跟蹤算法總結歸納

    目標跟蹤是計算機視覺領域中的一個重要任務,它旨在從視頻或圖像序列中準確地檢測和跟蹤多個移動目標。不過在落地部署時,有一些關鍵點需要解決。
    的頭像 發表于 04-28 09:42 ?2161次閱讀
    多<b class='flag-5'>目標</b>跟蹤<b class='flag-5'>算法</b>總結歸納

    AI驅動的雷達目標檢測:前沿技術與實現策略

    傳統的雷達目標檢測方法,主要圍繞雷達回波信號的統計特性進行建模,進而在噪聲和雜波的背景下對目標存在與否進行判決,常用的典型算法如似然比檢測
    發表于 03-01 12:26 ?3179次閱讀
    AI驅動的雷達<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>:前沿技術與實現策略
    主站蜘蛛池模板: 35pao强力打造 | 在线视频免费视频网站 | 欧美一级片在线免费观看 | 成年人一级毛片 | 一级特黄特色的免费大片视频 | 一卡二卡≡卡四卡亚洲高清 | 欧美freesex10一|3 | 亚洲第一色视频 | 午夜亚洲国产精品福利 | 51精品视频免费国产专区 | h在线国产 | 日日夜夜天天干干 | 奇米影视四色7777久久精品 | www.色.com| 视频一区二区在线 | 你懂的免费在线观看 | 中国xxxxx高清免费看视频 | 扒开双腿猛进湿润18p | 亚洲操综合 | 激情综合色五月丁香六月亚洲 | 色多多在线观看 | 2022第二三四天堂网 | 日本暴力喉深到呕吐hd | 丁香婷五月 | 久久sp| 欧美系列在线播放 | 日产乱码免费一卡二卡在线 | 色综合啪啪 | 性过程很黄的小说男男 | 我把美女日出白浆 | 国产小视频免费 | 国产精品漂亮美女在线观看 | 国产nv精品你懂得 | 日韩美女拍拍免费视频网站 | 亚洲高清色图 | 看视频免费 | 三级四级特黄在线观看 | 高清一区二区三区视频 | 大喷水吹潮magnet | 午夜精品久久久久久久2023 | 天天干夜夜添 |