現(xiàn)在,我們知道立體匹配在實(shí)際應(yīng)用中會(huì)有各種各樣困難的問題需要解決,例如之前提到過的光照、噪聲、鏡面反射、遮擋、重復(fù)紋理、視差不連續(xù)等等導(dǎo)致的匹配錯(cuò)誤或缺失。于是人們就創(chuàng)造了各種各樣的算法來解決這些問題。我們不禁要問一個(gè)問題:我們?nèi)绾喂降谋容^這些算法的優(yōu)劣呢?這就是我在這篇文章中想要闡述的內(nèi)容。讓我們先從評(píng)價(jià)方法的直覺理解開始,然后進(jìn)入到科學(xué)的部分。
一. 視差結(jié)果的評(píng)價(jià)方法
立體匹配里面提到的最基礎(chǔ)的固定窗口法的匹配結(jié)果:

- 均方根誤差(RMS Error),這里N是像素總數(shù)






二. 最早期的測試圖集(2001年及以前)
在第1節(jié)提到的論文中,作者說明了測試數(shù)據(jù)集的構(gòu)成,這些數(shù)據(jù)集就是MiddleBurry立體匹配數(shù)據(jù)集網(wǎng)站上的2001版數(shù)據(jù)集。第一類:平面場景數(shù)據(jù)集在vision.middlebury.edu/s上,你可以看到作者制作的6組平面場景數(shù)據(jù)。



三. 2003年開始,引入結(jié)構(gòu)光技術(shù)
正如上一節(jié)提出的,2001版的數(shù)據(jù)太簡單了,導(dǎo)致后面一些改進(jìn)后的算法很容易就能匹配上前述數(shù)據(jù)集中大多數(shù)像素,按照現(xiàn)在流行的說法:過擬合了。于是,前面兩位作者采用了新的方法制作更接近真實(shí)場景,更加具有挑戰(zhàn)性的數(shù)據(jù)集。這次的數(shù)據(jù)集主要包括下面兩個(gè)更加復(fù)雜的場景:Cones和Teddy, 你可以看到現(xiàn)在不再是平面目標(biāo)構(gòu)成的場景了,而是具有更加復(fù)雜的表面特征,以及陰影和更多深度不連續(xù)的區(qū)域。不僅如此,此次提供的圖像的尺寸也很大,完整尺寸是1800x1500,另外還提供了900x750及450x375兩種版本。同時(shí),還包括了遮擋區(qū)域、無紋理區(qū)域、深度不連續(xù)區(qū)域的掩碼圖像,用于各種指標(biāo)的計(jì)算。Cones:











- 遮擋,部分像素只在1個(gè)視角可見,在另外1個(gè)視角不可見
- 陰影或反射,導(dǎo)致部分像素的編碼不可靠,使得匹配失敗。
- 在匹配時(shí),因?yàn)橄鄼C(jī)分辨率和投影儀分辨率不一致,因此所需的插值或者混疊導(dǎo)致了一些像素?zé)o法完美匹配,從而在左右一致性檢查時(shí)失敗。
- 同樣,因?yàn)橥队皟x分辨率不足,導(dǎo)致相機(jī)成像時(shí)多個(gè)像素對應(yīng)同一個(gè)投影儀像素。這可能導(dǎo)致一個(gè)視角下的1個(gè)像素可能和另外一個(gè)視角下多個(gè)像素匹配上,從而在左右一致性檢查時(shí)失敗。
- 還有,就是當(dāng)采用多個(gè)不同的光源方向時(shí),不同光源方向照明時(shí)得到的視差圖不一致。這種不一致的像素也會(huì)被標(biāo)記為黑色像素。






四. 2014年,更加復(fù)雜的制作技術(shù)
前面講的數(shù)據(jù)集在立體匹配的研究中起了非常大的作用,很多重要的方法都是在這時(shí)候的數(shù)據(jù)集上進(jìn)行評(píng)價(jià)和改進(jìn)的。然而,它們的數(shù)量有限,場景有限,人們認(rèn)識(shí)到需要更多更復(fù)雜的場景,來促進(jìn)立體匹配算法的進(jìn)一步改進(jìn)。于是,2011年到2013年間,MiddleBurry大學(xué)的Nera Nesic, Porter Westling, Xi Wang, York Kitajima, Greg Krathwohl, 以及Daniel Scharstein等人又制作了33組數(shù)據(jù)集,2014年大佬Heiko Hirschmüller完成了對這批數(shù)據(jù)集的優(yōu)化。他們共同在GCPR2014發(fā)表了下面這篇文章,闡述了這批數(shù)據(jù)集的制作方案:






五. 2021年,增加用移動(dòng)設(shè)備拍攝的數(shù)據(jù)集
之前的數(shù)據(jù)集都是用單反相機(jī)作為主要成像設(shè)備的,因此圖像的質(zhì)量非常高。2019年到2021年間,Guanghan Pan, Tiansheng Sun, Toby Weed, 和Daniel Scharstein嘗試了用移動(dòng)設(shè)備來拍攝立體匹配數(shù)據(jù)集。這里他們采用的是蘋果的iPod Touch 6G,它被安裝到一個(gè)機(jī)械臂上,在不同視角下拍攝場景。視差圖的生成還是用了上一章介紹的方法,只不過做了適當(dāng)?shù)牟眉簟_@批數(shù)據(jù)一共24組,每個(gè)場景會(huì)有1到3組數(shù)據(jù),下面是例子:
六. 總結(jié)
這篇文章里,我為你介紹了幾種核心的立體匹配評(píng)價(jià)指標(biāo),以及MiddleBurry大學(xué)的幾代立體匹配數(shù)據(jù)集的制作方式。現(xiàn)在做相關(guān)研究的人確實(shí)應(yīng)該感謝包括Daniel Scharstein、Richard Szeliski和Heiko Hirschmüller在內(nèi)的先驅(qū)們,他們創(chuàng)建的MiddleBurry立體匹配數(shù)據(jù)集及評(píng)價(jià)系統(tǒng)極大地推動(dòng)了這個(gè)領(lǐng)域的發(fā)展。到了今年,一些計(jì)算機(jī)視覺界的頂會(huì)論文依然會(huì)描述自己在MiddleBurry 立體匹配數(shù)據(jù)集上的評(píng)價(jià)結(jié)果。目前排名第1的算法是曠視研究院今年推出的CREStereo,相關(guān)成果也發(fā)表到了CVPR2022,并會(huì)做口頭報(bào)告,我之后如有時(shí)間也會(huì)撰文加以講解。
七. 參考資料
1、MiddleBurry雙目數(shù)據(jù)集2、D. Scharstein and R. Szeliski.A taxonomy and evaluation of dense two-frame stereo correspondence algorithms.International Journal of Computer Vision, 47(1/2/3):7-42, April-June 20023、D. Scharstein and R. Szeliski.High-accuracy stereo depth maps using structured light. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2003),volume 1, pages 195-202, Madison, WI, June 2003.4、D. Scharstein and C. Pal.Learning conditional random fields for stereo. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007),Minneapolis, MN, June 2007.5、H. Hirschmüller and D. Scharstein.Evaluation of cost functions for stereo matching. InIEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007),Minneapolis, MN, June 2007.6、D. Scharstein, H. Hirschmüller, Y. Kitajima, G. Krathwohl, N. Nesic, X. Wang, and P. Westling.High-resolution stereo datasets with subpixel-accurate ground truth. InGerman Conference on Pattern Recognition (GCPR 2014), Münster, Germany,September 2014.7、CMU 2021 Fall Computational Photography Course 15-463, Lecture 18
審核編輯 :李倩
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報(bào)投訴
-
算法
+關(guān)注
關(guān)注
23文章
4710瀏覽量
95405 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1224瀏覽量
25453
原文標(biāo)題:深度解析MiddleBurry立體匹配數(shù)據(jù)集
文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評(píng)論請先 登錄
相關(guān)推薦
熱點(diǎn)推薦
使用AICube導(dǎo)入數(shù)據(jù)集點(diǎn)創(chuàng)建后提示數(shù)據(jù)集不合法怎么處理?
重現(xiàn)步驟
data目錄下
labels.txt只有英文
**錯(cuò)誤日志**
但是使用示例的數(shù)據(jù)集可以完成訓(xùn)練并部署
發(fā)表于 06-24 06:07
數(shù)據(jù)集下載失敗的原因?
數(shù)據(jù)集下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓(xùn)練報(bào)錯(cuò)網(wǎng)絡(luò)錯(cuò)誤
大的數(shù)據(jù)集多大?數(shù)據(jù)量有多少?
發(fā)表于 06-18 07:04
GPU架構(gòu)深度解析
GPU架構(gòu)深度解析從圖形處理到通用計(jì)算的進(jìn)化之路圖形處理單元(GPU),作為現(xiàn)代計(jì)算機(jī)中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強(qiáng)大的并行計(jì)算引擎,廣泛應(yīng)用于人工智能、科學(xué)計(jì)算

解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析
解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析 ——立即下載白皮書,搶占智能汽車發(fā)展先機(jī) *附件:解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析.pdf 為什么這份白皮書值
風(fēng)華電容命名方法深度解析
在電子元器件領(lǐng)域,風(fēng)華電容憑借其清晰的命名體系、全面的技術(shù)參數(shù)和廣泛的應(yīng)用場景,成為國內(nèi)外市場的標(biāo)志性品牌。本文將從命名規(guī)則、技術(shù)參數(shù)、行業(yè)應(yīng)用及市場優(yōu)勢四個(gè)維度,深度解析風(fēng)華電容的技術(shù)特性
深度解析Linux中的DNS服務(wù)
dns,Domain Name Server,它的作用是將域名解析為 IP 地址,或者將IP地址解析為域名。
航天宏圖PIE-DEM智能采編系統(tǒng)詳解
當(dāng)衛(wèi)星鏡頭掠過青藏高原的冰川裂縫,當(dāng)遙感影像捕捉到亞馬遜雨林0.01℃的溫度變化,一場由深度學(xué)習(xí)驅(qū)動(dòng)的技術(shù)革命正在重塑遙感影像立體匹配技術(shù)獲取高精度DEM/DSM的方式。

請問NanoEdge AI數(shù)據(jù)集該如何構(gòu)建?
我想用NanoEdge來識(shí)別異常的聲音,但我目前沒有辦法生成模型,我感覺可能是數(shù)據(jù)集的問題,請問我該怎么構(gòu)建數(shù)據(jù)集?或者生成模型失敗還會(huì)有哪些原因?
發(fā)表于 03-10 08:20
國產(chǎn)自研新標(biāo)桿:龍芯GM9-3003主板深度解析
國產(chǎn)自研新標(biāo)桿:龍芯GM9-3003主板深度解析

AI艙內(nèi)監(jiān)控虛擬驗(yàn)證平臺(tái):巧破座艙數(shù)據(jù)集困境,速啟高效生成新程!#智能座艙#數(shù)據(jù)集#虛擬驗(yàn)證#AI#AD
數(shù)據(jù)集
康謀自動(dòng)駕駛
發(fā)布于 :2025年02月26日 10:26:42
螺旋卡口式“連接更穩(wěn)固” ,解讀DH系列連接器連接方式匹配數(shù)據(jù)服務(wù)器訴求
景,采用螺旋卡口式連接方式的工業(yè)級(jí)連接器匹配度相對更高,更受青睞。連接器:螺旋卡口式連接方式的特點(diǎn)是什么?螺旋卡口式連接器的特點(diǎn)解析連接更穩(wěn)固通過螺旋卡口鎖定后,連接

玻璃通孔(TGV)技術(shù)深度解析
的性能和可靠性,還推動(dòng)了整個(gè)電子封裝行業(yè)的創(chuàng)新發(fā)展。本文將對TGV技術(shù)的基本原理、制造流程、應(yīng)用優(yōu)勢以及未來發(fā)展進(jìn)行深度解析。
Bumblebee X 立體相機(jī)提升工業(yè)自動(dòng)化中的立體深度感知
深度感知對倉庫機(jī)器人應(yīng)用至關(guān)重要,尤其是在自主導(dǎo)航、物品拾取與放置、庫存管理等方面。通過將深度感知與各種類型的3D數(shù)據(jù)(如體積數(shù)據(jù)、點(diǎn)云、紋理等)相結(jié)合,倉庫機(jī)器人可以在錯(cuò)綜復(fù)雜環(huán)境中

立體視覺新手必看:英特爾? 實(shí)感? D421深度相機(jī)模組
英特爾首款一體化立體深度模組,旨在將先進(jìn)的深度感應(yīng)技術(shù)帶給更廣泛的受眾 2024年9月24日?—— 英特爾? 實(shí)感? 技術(shù)再次突破界限,推出全新的英特爾? 實(shí)感? 深度相機(jī)模組D421

評(píng)論