在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenCV新增描述子BEBLID

新機(jī)器視覺 ? 來源:當(dāng)SLAM遇見小王同學(xué) ? 作者:當(dāng)SLAM遇見小王同學(xué) ? 2021-09-22 14:16 ? 次閱讀

在前不久發(fā)布的OpenCV4.5中更新了很多新特性:

  • 從4.5版本開始,OpenCV將正式使用Apache2協(xié)議,從而避免專利算法帶來的潛在糾紛
  • SIFT專利到期,代碼被移到主庫
  • 對(duì)RANSAC算法進(jìn)行了改進(jìn)
  • 新增了實(shí)時(shí)單目標(biāo)跟蹤算法SiamRPN++

還有其他重要更新,這里就不再敘述。值得一提的是,BELID描述子也被添加進(jìn)去了。

BEBLID全稱是Boosted Efficient Binary Local Image Descriptor,多項(xiàng)實(shí)驗(yàn)證明能夠提高圖像匹配精度,同時(shí)減少執(zhí)行時(shí)間。

#CommentoruncommenttouseORBorBEBLID
descriptor=cv.xfeatures2d.BEBLID_create(0.75)
#descriptor=cv.ORB_create()
kpts1,desc1=descriptor.compute(img1,kpts1)
kpts2,desc2=descriptor.compute(img2,kpts2)

更多細(xì)節(jié)可以參考:

https://towardsdatascience.com/improving-your-image-matching-results-by-14-with-one-line-of-code-b72ae9ca2b73
https://github.com/iago-suarez/beblid-opencv-demo/blob/main/demo.ipynb

CODE:https://github.com/iago-suarez/BEBLID.git

PDF:http://www.dia.fi.upm.es/~pcr/publications/PRL_2020_web_BEBLID.pdf

這里說一下結(jié)論吧,經(jīng)過這個(gè)作者測試,將ORB描述符替換為BEBLID,就可以將這兩個(gè)圖像的匹配結(jié)果提高14%.

下面詳細(xì)介紹一下這個(gè)BEBLID描述子.

作者提出了一種有效的圖像描述符BELID。其有效性的關(guān)鍵是對(duì)一組圖像特征進(jìn)行有區(qū)別的選擇,且計(jì)算量要求非常低。實(shí)驗(yàn)是在電腦智能手機(jī)上進(jìn)行,BELID的精確度與SIFT相似,執(zhí)行時(shí)間與最快的算法ORB相當(dāng)。

介紹

局部圖像是用于匹配存在強(qiáng)烈外觀變化的圖像,如光照變化或幾何變換。它們是許多計(jì)算機(jī)視覺任務(wù)的基本組成部分,如3D重建、SLAM、圖像檢索、位姿估計(jì)等。它們是最流行的圖像表示方法,因?yàn)榫植刻卣魇仟?dú)特的,視點(diǎn)不變的。

為了產(chǎn)生一個(gè)局部圖像表示,我們必須檢測一組顯著的圖像結(jié)構(gòu),并為每個(gè)結(jié)構(gòu)提供描述。對(duì)于各種如角、線和區(qū)域,有大量非常有效的檢測器,它們可以用實(shí)數(shù)或二進(jìn)制描述符來描述。目前SIFT描述子仍然被認(rèn)為是“黃金標(biāo)準(zhǔn)”技術(shù)。

本文給出了一種有效的描述子。特征使用積分圖像來有效地計(jì)算一對(duì)圖像正方形區(qū)域的平均灰度值之間的差。作者使用一個(gè)增強(qiáng)算法來區(qū)分地選擇一組特征,并將它們組合起來產(chǎn)生強(qiáng)描述。實(shí)驗(yàn)結(jié)果表明,該方法提高了計(jì)算速度,執(zhí)行時(shí)間接近ORB,精度與SIFT相似,它能夠?yàn)槭诸^的任務(wù)選擇最佳的特征。

BELID

在本節(jié)中,作者提出了一種描述圖像局部區(qū)域的有效算法,其速度和SIFT一樣快。其速度的關(guān)鍵是使用少量、快速和選擇性的特征。描述子使用一組使用BoostedSCC算法選擇的K個(gè)特征,該算法是對(duì)AdaBoost的改進(jìn)。

設(shè)是由一對(duì)對(duì)圖像patches組成的訓(xùn)練集,標(biāo)記{?1,1}。其中= 1表示兩個(gè)patch對(duì)應(yīng)相同的顯著性圖像結(jié)構(gòu),=?1表示不同的顯著性圖像結(jié)構(gòu).

訓(xùn)練過程將損失降到最低

fd1680f8-0b47-11ec-8fb8-12bb97331649.png

其中,它依賴于特征提取函數(shù)f: X→R和一個(gè)閾值T.給定f和T,通過含T的f(x)來定義weak learner,

fd284446-0b47-11ec-8fb8-12bb97331649.png

1. 閾值平均盒弱學(xué)習(xí)者

效率的關(guān)鍵是選擇一個(gè)f(x),它既具有判別性,又能快速計(jì)算。我們定義特征提取函數(shù)f(x)

fd32fcc4-0b47-11ec-8fb8-12bb97331649.png

I(t)是像素的灰度值t和R (p, s)是大小的正方形盒子集中在帶有尺寸s的像素p。因此,f計(jì)算像素的平均灰度值之間的差異(, s)和R(,s)。圖2中的紅色和藍(lán)色方塊代表,分別(, s)和R (, s)。加快f的計(jì)算,作者使用積分圖像的輸入圖像。一旦S可用,方框中的灰度和可以通過4次內(nèi)存訪問和4次算術(shù)運(yùn)算來計(jì)算。

fd414afe-0b47-11ec-8fb8-12bb97331649.png

檢測器通常計(jì)算局部結(jié)構(gòu)的方位和尺度。為了BEBLID描述符不受歐幾里得變換的影響,作者用底層的局部結(jié)構(gòu)來定位和縮放我們的測量值。

2. 優(yōu)化弱學(xué)習(xí)者權(quán)值

BoostedSCC算法選擇K個(gè)弱學(xué)習(xí)者及其相應(yīng)的權(quán)值。等式1中BoostedSCC優(yōu)化的損耗函數(shù)可以看作是一種度量學(xué)習(xí)方法,其中度量矩陣a是對(duì)角的

fd6b9642-0b47-11ec-8fb8-12bb97331649.png

其中h(w)是K個(gè)弱學(xué)習(xí)者對(duì)圖像patch的w響應(yīng)向量。在這種情況下,不考慮不同弱學(xué)習(xí)者響應(yīng)之間的依賴關(guān)系。此時(shí),給定圖像patch w的BELID-U(未優(yōu)化)描述符計(jì)算為,其中使=

進(jìn)一步,通過對(duì)特征之間的相關(guān)性進(jìn)行建模,估計(jì)整個(gè)矩陣A可以改善相似函數(shù)。FP-Boost估計(jì)最小值

fd75fccc-0b47-11ec-8fb8-12bb97331649.png

采用隨機(jī)梯度下降法估計(jì)對(duì)稱的a和是一項(xiàng)困難的工作。因此,該算法從K個(gè)弱學(xué)習(xí)器和由BoostedSCC找到的α開始。第二個(gè)學(xué)習(xí)步驟非常快,因?yàn)樗腥鯇W(xué)習(xí)者的反應(yīng)都可以預(yù)先計(jì)算出來

在未優(yōu)化的描述符的情況下,必須分解相似函數(shù)s(x,y)來計(jì)算x和y的獨(dú)立描述子。假設(shè)A是一個(gè)對(duì)稱矩陣,可以使用它的特征分解來選擇特征值最大的D個(gè)特征向量

fd7ee29c-0b47-11ec-8fb8-12bb97331649.png

實(shí)驗(yàn)

不同的場景:巴黎圣母院,約塞米蒂國家公園和紐約的自由女神像。在SIFT檢測到的局部結(jié)構(gòu)周圍裁剪PATCH。

作者用三種方法來比較性能:

  • FPR-95.: 這是一個(gè)PATCH驗(yàn)證問題中95%的召回誤報(bào)率。當(dāng)開發(fā)BEBILD描述符時(shí),作者希望能夠匹配大部分的局部結(jié)構(gòu),比如說95%的召回率,但是有盡可能少的誤報(bào)。因此,在PATCH驗(yàn)證問題中,描述符的FPR-95越低越好。
  • AUC: PATCH驗(yàn)證問題中ROC曲線下的面積。它提供了一個(gè)良好的整體測量,因?yàn)樗紤]了曲線上的所有操作點(diǎn),而不是像FPR-95案例中只有一個(gè)。
  • mAP.: 在PATCH驗(yàn)證、圖像匹配和PATCH檢索這三個(gè)任務(wù)中,每個(gè)任務(wù)的平均精度,在HPatches基準(zhǔn)中定義。

作者已經(jīng)在Python中實(shí)現(xiàn)了BoostedSCC、FP-Boost和閾值平均盒弱學(xué)習(xí)者的學(xué)習(xí)和測試部分。為了優(yōu)化A矩陣,使用了固定學(xué)習(xí)率為10 - 8和批量2000個(gè)樣本的隨機(jī)梯度下降算法。同時(shí)也在c++中實(shí)現(xiàn)了使用OpenCV處理輸入圖像。作者使用這個(gè)實(shí)現(xiàn)來測量BELID在不同平臺(tái)上的執(zhí)行時(shí)間。

1. PATCH驗(yàn)證實(shí)驗(yàn)

在這里,首先探索維度數(shù)的影響。在圖3中,顯示了AUC和FPR-95值作為維數(shù)(“N維”)的函數(shù)。在BELID的例子中,使用K = 512,并計(jì)算B從512維減少到圖中給出的一個(gè)。

fd875b66-0b47-11ec-8fb8-12bb97331649.png

首先運(yùn)行BoostedSSC來選擇512個(gè)弱學(xué)習(xí)者。通過從這個(gè)初始集合中移除最后的弱學(xué)習(xí)者,作者改變了圖3中BELID- u曲線的維數(shù)。對(duì)于BELID,丟棄了B的最后一列,它們對(duì)應(yīng)于與最小特征值相關(guān)的縮放特征向量

fd94d91c-0b47-11ec-8fb8-12bb97331649.png

從圖3可以看出,boosting過程選擇的特征最多只在一點(diǎn)上對(duì)最終判別有貢獻(xiàn)。在128個(gè)弱學(xué)習(xí)者之后,每個(gè)新特征提供的改進(jìn)非常小。在256之后,沒有得到任何改進(jìn),這意味著最后一個(gè)是多余的。優(yōu)化后的BELID性能優(yōu)于BELIDU,BELID得分最低FPR-95有128個(gè)尺寸。

2. Hpatches數(shù)據(jù)集實(shí)驗(yàn)

fdb796d2-0b47-11ec-8fb8-12bb97331649.png

圖5顯示了用HPathces工具獲得的各種BELID配置和其他競爭方法的結(jié)果。作者得到了與之前實(shí)驗(yàn)相同的情況,所有的BELID配置都比SIFT好,69.57 vs 63.35,比ORB好得多。

然而,在另外兩個(gè)任務(wù)中,BEBILD描述子落后于SIFT。這是一個(gè)預(yù)期的結(jié)果,因?yàn)樽髡邲]有為這些任務(wù)優(yōu)化描述子。總之,BELID在所有任務(wù)中提供的結(jié)果接近SIFT,并優(yōu)于ORB。

3. 不同平臺(tái)的執(zhí)行時(shí)間

在最后的實(shí)驗(yàn)中,作者測試了c++實(shí)現(xiàn)的BELID處理圖像的時(shí)間,呈現(xiàn)了由來自8個(gè)不同場景的48張800×640圖像組成的Mikolajczyk數(shù)據(jù)集的執(zhí)行時(shí)間。

作者將執(zhí)行時(shí)間與OpenCV庫中的其他相關(guān)描述子進(jìn)行比較。為此運(yùn)行ORB ,、SIFT 、 LBGM和BinBoost。結(jié)果在表1中。

fdcd0666-0b47-11ec-8fb8-12bb97331649.png

就速度而言,BELID-U與ORB相當(dāng)。事實(shí)上,BELID-U在桌面環(huán)境下和ORB一樣快(0.41 ms vs 0.44 ms),在有限的CPU環(huán)境下更快(2.54 ms vs 6.49 ms)。這是意料之中的,因?yàn)閮烧叨际褂靡唤M灰度值差異作為特征。LBGM使用與BELID相同的特征選擇算法,但具有較慢的特征。因此,這個(gè)描述符需要與桌面設(shè)置中的SIFT相同的處理時(shí)間(19.77 ms vs 22.22 ms),但FPR-95稍好。

在桌面CPU上,BELID-128只需要3.08毫秒,大約是BELID-U和ORB的7倍。在智能手機(jī)CPU中,BELID128的時(shí)間也比BELID-U慢7倍左右。

結(jié)論本文提出了一種有效的圖像描述符BELID。在實(shí)驗(yàn)中,作者證明了它有非常低的計(jì)算要求,在準(zhǔn)確度方面,BELID優(yōu)于ORB,接近SIFT。

編輯:jq
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4876

    瀏覽量

    69960
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    430

    瀏覽量

    32237
  • OpenCV
    +關(guān)注

    關(guān)注

    31

    文章

    641

    瀏覽量

    42218
  • orb
    orb
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    9991

原文標(biāo)題:OpenCV新增描述子BEBLID:提高圖像匹配精度,減少執(zhí)行時(shí)間

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Vivado設(shè)計(jì)流程分析 Vivado HLS實(shí)現(xiàn)OpenCV的開發(fā)流程

    作者:Harvest Guo來源:Xilinx DSP Specilist 本文通過對(duì)OpenCV中圖像類型和函數(shù)處理方法的介紹,通過設(shè)計(jì)實(shí)例描述在vivadoHLS中調(diào)用OpenCV庫函數(shù)實(shí)現(xiàn)圖像
    發(fā)表于 04-23 11:32 ?5991次閱讀
    Vivado設(shè)計(jì)流程分析 Vivado HLS實(shí)現(xiàn)<b class='flag-5'>OpenCV</b>的開發(fā)流程

    最新OpenCV專題出爐啦~最全OpenCV教程及各種圖像處理、目標(biāo)跟蹤、識(shí)別案例

    OpenCV基礎(chǔ)知識(shí)及應(yīng)用領(lǐng)域設(shè)計(jì),包含OpenCV教程、OpenCV識(shí)別、OpenCV跟蹤及OpenCV圖像處理,充分翔實(shí)的向大家
    發(fā)表于 07-06 14:41

    SE5盒上安裝了libsophon、和sophon-mw的包之后運(yùn)行opencv resize報(bào)錯(cuò)如何解決?

    在SE5盒上安裝了libsophon、和sophon-mw的包之后,運(yùn)行簡單的opencv resize,出現(xiàn)了如下錯(cuò)誤 [/workspace/middleware-soc/bm_opencv
    發(fā)表于 09-18 08:10

    最全OpenCV教程及圖像處理、目標(biāo)跟蹤、識(shí)別案例

    本專題主要幫助讀者快速入門 OpenCV,而無需到處搜尋參考資料,為你免除大量自行搜索的時(shí)間,本專題主要給大家介紹OpenCV基礎(chǔ)知識(shí)及應(yīng)用領(lǐng)域設(shè)計(jì),包含OpenCV教程、OpenCV
    發(fā)表于 07-06 14:11
    最全<b class='flag-5'>OpenCV</b>教程及圖像處理、目標(biāo)跟蹤、識(shí)別案例

    opencv備忘單

    opencv備忘單,opencv_cheatsheet,opencv_tutorials,opencv_user,opencv2refman
    發(fā)表于 08-25 15:52 ?0次下載

    基于Pivots的有效圖像塊描述

    rm)和HOG(histogram of oriented gradient)是人為設(shè)計(jì)圖像塊特征表示的優(yōu)秀代表,然而,人為設(shè)計(jì)圖像塊特征間的差異往往不能足夠理想地反映圖像塊間的相似性.核描述
    發(fā)表于 01-21 10:54 ?1次下載

    一種改進(jìn)的SIFT描述在圖像配準(zhǔn)中的應(yīng)用

    針對(duì)尺度不變特征變換( SIFT)算法中描述維度高造成配準(zhǔn)過程中計(jì)算量過大的問題,提出了一種改進(jìn)的SIFT算法。該算法利用圓形的旋轉(zhuǎn)不變性,以特征點(diǎn)為中心,在近似大小的圓形特征點(diǎn)鄰城內(nèi)構(gòu)造特征描述
    發(fā)表于 01-30 14:01 ?2次下載

    圖像局部特征描述方法

    針對(duì)描述的性能與維數(shù)相矛盾的問題,提出了一種頑健的圖像局部特征區(qū)域的描述方法。首先按照像素排序?qū)⒕植刻卣鲄^(qū)域分割為若干個(gè)子區(qū)域,然后利用基于閾值的分段局部描述
    發(fā)表于 03-19 15:52 ?3次下載

    OpenCV3.1的使用教程之圖像特征描述的詳細(xì)資料說明

    本文檔的主要內(nèi)容詳細(xì)介紹的是OpenCV3.1的使用教程之圖像特征描述的詳細(xì)資料說明
    發(fā)表于 01-06 08:00 ?13次下載

    基于OpenCV3.1的圖像特征描述功能實(shí)現(xiàn)

    本文檔的主要內(nèi)容詳細(xì)介紹的是OpenCV3.1的使用教程之圖像特征描述的詳細(xì)資料說明。
    發(fā)表于 03-29 14:26 ?10次下載

    一種全新的特征組合二值描述算法

    為提高二值描述的分辨力和魯棒性,提出一種新的特征組合二值描述算法。將采樣點(diǎn)圓形鄰域劃分為多個(gè)環(huán)域,通過比較任一對(duì)采樣點(diǎn)對(duì)應(yīng)環(huán)域的灰度均值獲得灰度二值向量,計(jì)算采樣點(diǎn)圓形鄰域內(nèi)像素點(diǎn)
    發(fā)表于 05-26 16:40 ?0次下載

    一種事件相機(jī)描述——DART

    在物體分類、目標(biāo)跟蹤等問題下,我們經(jīng)常需要提取物體的一些特征。傳統(tǒng)圖像中常使用描述(例如BRIEF)等對(duì)某個(gè)特征點(diǎn)(FAST或Harris角...
    發(fā)表于 02-07 11:20 ?1次下載
    一種事件相機(jī)<b class='flag-5'>描述</b><b class='flag-5'>子</b>——DART

    OpenCV4.x可實(shí)現(xiàn)加載模型與執(zhí)行推斷

    OpenCV4.x發(fā)布以后,有很多新的特性與黑科技支持,無論是支持OpenVINO加速、圖計(jì)算模塊、二維碼識(shí)別,還是DNN中新增加的人臉檢測與識(shí)別模型,作為OpenCV開發(fā)者的我深深被吸引,幾乎只要有時(shí)間就會(huì)一個(gè)一個(gè)的去發(fā)現(xiàn)與之
    的頭像 發(fā)表于 07-30 11:58 ?1126次閱讀

    opencv的主要功能有哪些

    OpenCV提供了豐富的圖像處理功能,包括圖像的讀取、顯示、保存、轉(zhuǎn)換等。此外,OpenCV還支持圖像的濾波、邊緣檢測、形態(tài)學(xué)操作、圖像金字塔等高級(jí)圖像處理技術(shù)。 特征檢測與描述OpenC
    的頭像 發(fā)表于 07-16 10:35 ?2339次閱讀

    opencv-python和opencv一樣嗎

    不一樣。OpenCV(Open Source Computer Vision Library)是一個(gè)開源的計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)軟件庫,它提供了大量的圖像和視頻處理功能。OpenCV
    的頭像 發(fā)表于 07-16 10:38 ?1773次閱讀
    主站蜘蛛池模板: www.五月天| xx毛片 | 无遮挡很污很爽很黄的网站 | 1024手机在线观看视频 | jizz免费一区二区三区 | 另类视频色综合 | 欧美一级视频免费 | 色视频免费看 | 青青热久久国产久精品秒播 | 国产精品va在线观看不 | 乱好看的的激情伦小说 | 中文字幕一区二区精品区 | 国产成人精品高清免费 | 天堂看动漫 | 国产三级a三级三级天天 | 天天做天天爱天天爽 | 网站在线观看视频 | 亚洲欧美网站 | 欧美性爽xxxⅹbbbb | 国产一级特黄在线视频 | 色一欲一性一乱一区二区三区 | 18男女很黄的视频 | 天天爽夜夜爽每晚高澡 | 中文一区二区在线观看 | 啪啪伊人网 | 狠狠的干狠狠的操 | 色成人综合 | 亚洲一区 在线播放 | 不卡视频一区二区 | 久久97精品久久久久久久看片 | 优优优色 | 亚洲综合涩 | 人人草在线 | 色吧久久 | 久久久噜噜噜久久 | 国产精品污视频 | 2020天天干| 欧美综合成人网 | 色婷婷色99国产综合精品 | 天天插天天色 | 91久久麻豆|