在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

對象檢測邊界框損失函數–從IOU到ProbIOU介紹

OpenCV學堂 ? 來源:OpenCV學堂 ? 2024-01-24 10:50 ? 次閱讀

概述

目標檢測損失函數的選擇在目標檢測問題建模中至關重要。通常,目標檢測需要兩個損失函數,一個用于對象分類,另一個用于邊界框回歸(BBR)。本文將重點介紹 IoU 損失函數(GIoU 損失、DIoU 損失和 CIoU 損失、ProbIoU)。首先來了解一下什么是最原始的IoU定義

什么是IOU(并交比)

對象檢測中的 mAP(平均精度)指標是根據 IoU(交集超過并集)進行評估的。因此,BBR使用基于 IoU 的損失函數來實現計算mAP,mAP的典型計算公式與表示如下:

b622cf5c-b9fb-11ee-8b88-92fbcf53809c.png

b63355ca-b9fb-11ee-8b88-92fbcf53809c.png

但是這種最原始的IoU并交比的損失計算方式是有缺陷的,如當預測框與真實框沒有相交的時候,IoU損失就是0,這樣就導致了沒有梯度,導致訓練的效果就會打折許多。

改進之GIoU

于是有個聰明的人發現,這樣可以稍微避免這種問題的發生,就是把預測框與真實框(A與B)合起來求最小的外接矩形,就變成了如下:

b643a524-b9fb-11ee-8b88-92fbcf53809c.png

對應的GIoU的計算公式就改成了:

b6505aee-b9fb-11ee-8b88-92fbcf53809c.png

下圖是分別基于L2與L1損失相同的情況下,IoU跟GIoU有明顯的差異比較。

b6595202-b9fb-11ee-8b88-92fbcf53809c.png

加入懲罰項因子以后,對于沒有重疊的預測也可以實現邊界框回歸了,從而改善了IoU的缺陷。論文給出的實驗結果如下:

b67aae52-b9fb-11ee-8b88-92fbcf53809c.png

改進之DIoU與CIoU

作者把IoU損失看成是一個通用的公式如下:

b68b8ad8-b9fb-11ee-8b88-92fbcf53809c.png

其中R是懲罰性因子,這樣R=0的時候就是普通的IoU損失,從而把IoU損失改進看成是尋找好的懲罰性因子,然后作者通過一通神的思考以后給出了下面的懲罰性因子公式:

b69d552e-b9fb-11ee-8b88-92fbcf53809c.png

這樣 DIoU就出來

b6a9afc2-b9fb-11ee-8b88-92fbcf53809c.png

b6b405bc-b9fb-11ee-8b88-92fbcf53809c.png

這樣是不是梯度會大一些,回歸起來會更猛一點,效果會更好點。但是作者說好的BBR應該考慮三個指標分別是重疊、中心位置距離、橫縱比,DIoU只考慮前面兩個,還有最后一個還沒有考慮到,所以還可以改進,改進之后才是完整的IoU損失(CIoU),然后就得到了另外一個懲罰性因子公式跟對應的CIoU損失:

b6c233f8-b9fb-11ee-8b88-92fbcf53809c.png

然后作者給出了實驗結果:

b6da33ea-b9fb-11ee-8b88-92fbcf53809c.png

說明CIoU開掛了,所以YOLOv8默認就是CIoU。

ProbIoU

ProbIoU可以實現OBB旋轉對象映射到GBB、然后實現預測框與真實框的回歸IoU損失功能,然后基于協方差矩陣,計算巴氏距離以后,再基于BD實現損失計算

b6f2fec0-b9fb-11ee-8b88-92fbcf53809c.png

跟原始的IoU比較,有明顯的改善:

b6fd097e-b9fb-11ee-8b88-92fbcf53809c.png

然后它自己說靠譜,所以YOLOv8的旋轉對象檢測就采用了ProbIoU來做BBR。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • MAP
    MAP
    +關注

    關注

    0

    文章

    49

    瀏覽量

    15181

原文標題:對象檢測邊界框損失 – 從IOU到ProbIOU

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    TensorFlow損失函數(定義和使用)詳解

    正如前面所討論的,在回歸中定義了損失函數或目標函數,其目的是找到使損失最小化的系數。本節將介紹如何在 TensorFlow 中定義
    發表于 07-28 14:38

    結合預測和目標之間的歸一化距離來提出距離-IoU (DIoU) Loss

    1、IoU深入解析  邊界回歸是目標檢測的關鍵步驟,在現有方法中,雖然-norm loss 被廣泛用于邊界
    發表于 11-14 15:46

    YOLOv5全面解析教程之目標檢測模型精確度評估

    ):分類器把負例正確的分類-預測為負例(yolov5中沒有應用到)  yolov5中沒有應用TN的原因: TN代表的是所有可能的未正確檢測到的邊界。然而在yolo在目標檢測任務中,每
    發表于 11-21 16:40

    基于YOLOX目標檢測算法的改進

    ,忽視了坐標間的關聯性。2016 年,Yu et al.在人臉檢測任務中提出了 Intersection over Union(IoU)損失函數以建立坐標之間的關聯性,提升
    發表于 03-06 13:55

    深度學習:什么是IoU

    IoU是一種測量在特定數據集中檢測相應物體準確度的一個標準。IoU是一個簡單的測量標準,只要是在輸出中得出一個預測范圍(bounding boxex)的任務都可以用IoU來進行測量。
    發表于 02-01 01:58 ?6.6w次閱讀

    一種新的帶有不確定性的邊界回歸損失,可用于學習更準確的目標定位

    目標檢測是一種多任務學習問題,包含目標定位和目標分類。當前最佳的目標檢測器(比如 Faster RCNN、Cascade R-CNN 和 Mask R-CNN)都依靠邊界回歸來定位目
    的頭像 發表于 04-23 16:38 ?6505次閱讀
    一種新的帶有不確定性的<b class='flag-5'>邊界</b><b class='flag-5'>框</b>回歸<b class='flag-5'>損失</b>,可用于學習更準確的目標定位

    一種新的、更精細的對象表示方法 ——RepPoints ,比邊界更好用的目標檢測方法

    雖然邊界便于計算,但它們僅提供目標的粗略定位,并不完全擬合對象的形狀和姿態。因此,邊界的規
    的頭像 發表于 05-05 10:58 ?7457次閱讀
    一種新的、更精細的<b class='flag-5'>對象</b>表示方法 ——RepPoints ,比<b class='flag-5'>邊界</b><b class='flag-5'>框</b>更好用的目標<b class='flag-5'>檢測</b>方法

    三種常見的損失函數和兩種常用的激活函數介紹和可視化

    從上面闡釋的步驟可以看出,神經網絡中的權重由損失函數的導數而不是損失函數本身來進行更新或反向傳播。因此,損失
    的頭像 發表于 05-05 11:42 ?7258次閱讀
    三種常見的<b class='flag-5'>損失</b><b class='flag-5'>函數</b>和兩種常用的激活<b class='flag-5'>函數</b><b class='flag-5'>介紹</b>和可視化

    RepPoints 比邊界更好用的目標檢測方法

    來自北京大學、清華大學和微軟亞洲研究院的研究人員提出一種新的、更精細的對象表示方法RepPoints,拋棄了流行的邊界表示,結果與最先進的基于 anchor 的檢測方法同樣有效。
    的頭像 發表于 05-09 17:25 ?5881次閱讀
    RepPoints 比<b class='flag-5'>邊界</b><b class='flag-5'>框</b>更好用的目標<b class='flag-5'>檢測</b>方法

    損失函數的簡要介紹

    例如,你有一個神經網絡,通過該網絡可以獲取一些與房屋有關的數據并預測其價格。在這種情況下,你可以使用MSE(均方誤差)損失。基本上,在輸出為實數的情況下,應使用此損失函數
    的頭像 發表于 04-17 10:01 ?3661次閱讀

    機器學習和深度學習中分類與回歸常用的幾種損失函數

    本文將介紹機器學習、深度學習中分類與回歸常用的幾種損失函數,包括均方差損失 Mean Squared Loss、平均絕對誤差損失 Mean
    的頭像 發表于 10-09 16:36 ?6308次閱讀
    機器學習和深度學習中分類與回歸常用的幾種<b class='flag-5'>損失</b><b class='flag-5'>函數</b>

    val.py源碼解讀

    邊界損失(box_loss):該損失用于衡量模型預測的邊界與真實
    的頭像 發表于 02-20 14:50 ?1542次閱讀

    PyTorch教程-14.7。單發多檢測

    SageMaker Studio Lab 中打開筆記本 在第 14.3 節第 14.6 節中,我們介紹邊界、錨、多尺度目標
    的頭像 發表于 06-05 15:44 ?670次閱讀
    PyTorch教程-14.7。單發多<b class='flag-5'>框</b><b class='flag-5'>檢測</b>

    每日一課 | 智慧燈桿視覺技術之對象檢測技術簡介

    3.2.2對象檢測圖3-5對象檢測對象檢測中的識別對象
    的頭像 發表于 03-05 10:14 ?600次閱讀
    每日一課 | 智慧燈桿視覺技術之<b class='flag-5'>對象</b><b class='flag-5'>檢測</b>技術簡介

    縱觀全局:YOLO助力實時物體檢測原理及代碼

    YOLO 流程的最后一步是將邊界預測與類別概率相結合,以提供完整的檢測輸出。每個邊界的置信度分數由類別概率調整,確保
    的頭像 發表于 03-30 14:43 ?2598次閱讀
    主站蜘蛛池模板: 毛片一区二区三区 | 日本免费一区二区视频 | 日本在线一区二区 | 国产乱辈通伦影片在线播放亚洲 | 在线视频观看免费 | 97影院午夜午夜伦不卡 | 久操青青 | 东北美女野外bbwbbw免费 | 亚洲video| 永久免费精品影视网站 | 无夜精品久久久久久 | 男男浪荡双性受hplay | 三级毛片网站 | 午夜高清免费观看视频 | 久久精品香蕉视频 | 四虎hu| 手机看片久久青草福利盒子 | 瑟瑟网站免费 | 日本在线播放一区 | 天天插日日干 | 亚洲不卡免费视频 | 18黄无遮挡免费视频 | 色综合天 | 男男h啪肉np文总受 男男h全肉耽污 | 欧美午夜性刺激在线观看免费 | 天天精品 | 欧美三级不卡在线观线看高清 | 日本黄色激情视频 | 欧美人成网站免费大全 | 国产成人精品亚洲日本在线观看 | 国产精品天天在线 | 爱啪网站 | 天天射狠狠干 | 手机看片1024国产基地 | 色噜噜狠狠色综合久 | 天天干夜夜草 | 97久久综合九色综合 | 日日噜噜噜夜夜爽爽狠狠视频 | 国产性夜夜春夜夜爽 | 欧美性喷潮 | 黄色的网站在线观看 |