在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種R3LIVE++的LiDAR慣性視覺(jué)融合框架

3D視覺(jué)工坊 ? 來(lái)源:自動(dòng)駕駛之心 ? 作者:汽車人 ? 2022-10-17 09:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

本文提出了一種名為 R3LIVE++ 的 LiDAR 慣性視覺(jué)融合框架,以實(shí)現(xiàn)穩(wěn)健且準(zhǔn)確的狀態(tài)估計(jì),同時(shí)實(shí)時(shí)重建輻射圖。R3LIVE++ 由實(shí)時(shí)運(yùn)行的 LiDAR 慣性里程計(jì) (LIO) 和視覺(jué)慣性里程計(jì) (VIO) 組成。LIO 子系統(tǒng)利用來(lái)自 LiDAR 的測(cè)量來(lái)重建幾何結(jié)構(gòu),而 VIO 子系統(tǒng)同時(shí)從輸入圖像中恢復(fù)幾何結(jié)構(gòu)的輻射信息。

R3LIVE++基于R3LIVE,通過(guò)結(jié)合相機(jī)光度校準(zhǔn)和相機(jī)曝光時(shí)間的在線估計(jì),進(jìn)一步提高了定位和建圖的準(zhǔn)確性。論文在公開和私有數(shù)據(jù)集上展開了充分的實(shí)驗(yàn),并同其他SOTA的SLAM 系統(tǒng)進(jìn)行比較。定量和定性的結(jié)果表明,R3LIVE++ 在準(zhǔn)確性和魯棒性方面都有很大的優(yōu)勢(shì)。

此外,為了展示R3LIVE++ 的可擴(kuò)展性,論文基于R3LIVE++得到的重建地圖開發(fā)了若干應(yīng)用程序,例如高動(dòng)態(tài)范圍 (HDR) 成像、虛擬環(huán)境探索和 3D 視頻游戲。 在SLAM中融合LiDAR和相機(jī)測(cè)量,可以克服各個(gè)傳感器在定位中的退化問(wèn)題,并生成滿足各種地圖應(yīng)用需求的精確、紋理化和高分辨率3D地圖。基于此,論文提出的R3LIVE++有以下特點(diǎn):

R3LIVE++是一個(gè)激光雷達(dá)慣性視覺(jué)融合框架,緊密耦合了兩個(gè)子系統(tǒng):LIO和VIO子系統(tǒng)。這兩個(gè)子系統(tǒng)聯(lián)合增量地實(shí)時(shí)構(gòu)建周圍環(huán)境的3D輻射圖。特別是,LIO通過(guò)將LiDAR中的新點(diǎn)云配準(zhǔn)到地圖中來(lái)重建幾何結(jié)構(gòu),而VIO則通過(guò)將圖像中的像素顏色渲染到地圖中的點(diǎn)來(lái)恢復(fù)輻射信息;

R3LIVE++提出一個(gè)新穎的VIO設(shè)計(jì),通過(guò)最小化輻射圖中的點(diǎn)與當(dāng)前圖像中稀疏像素集合間的輻射度差異來(lái)跟蹤相機(jī)姿態(tài)(并估計(jì)其他系統(tǒng)狀態(tài))。frame-to-map的對(duì)齊有效地降低了里程計(jì)的漂移,而單個(gè)像素稀疏集合上的直接光度誤差有效地限制了計(jì)算負(fù)載。此外,基于光度誤差,VIO能夠在線估計(jì)相機(jī)曝光時(shí)間,從而能夠恢復(fù)環(huán)境的真實(shí)輻射信息;

在定位精度、魯棒性和輻射圖重建精度方面,論文的方法在真實(shí)世界的實(shí)驗(yàn)中得到了廣泛驗(yàn)證。來(lái)自開放數(shù)據(jù)集(NCLT數(shù)據(jù)集)的25個(gè)序列的基準(zhǔn)測(cè)試結(jié)果表明,相比之下,R3LIVE++在所有其他最先進(jìn)的SLAM系統(tǒng)(如LVI-SAM、LIO-SAM、FAST-LIO2等)中實(shí)現(xiàn)了新SOTA。

此外,論文在私有數(shù)據(jù)集的評(píng)估表明,R3LIVE++對(duì)于激光雷達(dá)或相機(jī)測(cè)量退化的極端挑戰(zhàn)場(chǎng)景(例如,當(dāng)設(shè)備面對(duì)無(wú)紋理的墻時(shí))具有更好的魯棒性。最后,與其他同類產(chǎn)品相比,R3LIVE++可以更準(zhǔn)確地估計(jì)相機(jī)的曝光時(shí)間,并重建環(huán)境的真實(shí)輻射信息,與圖像中的測(cè)量像素相比,誤差要小得多;

據(jù)論文稱,這是第一個(gè)輻射圖重建框架,它可以在配備標(biāo)準(zhǔn)CPU的PC上實(shí)現(xiàn)實(shí)時(shí)性能,而無(wú)需任何硬件或GPU加速。基于進(jìn)一步開發(fā)的一套網(wǎng)格重建和紋理處理離線應(yīng)用程序,該系統(tǒng)在各種現(xiàn)實(shí)應(yīng)用中顯示出巨大潛力,例如3D HDR成像、物理模擬和視頻游戲。

方法

論文使用的符號(hào)含義如下表所示:

690420ec-4da8-11ed-a3b6-dac502259ad0.png

系統(tǒng)概覽

為了同時(shí)估計(jì)傳感器姿態(tài)并重建環(huán)境輻射圖,論文設(shè)計(jì)了一個(gè)緊密耦合的LiDAR慣性視覺(jué)傳感器融合框架,如圖2所示。該框架包含兩個(gè)子系統(tǒng):LIO和VIO子系統(tǒng)。LIO子系統(tǒng)通過(guò)記錄每個(gè)輸入LiDAR的點(diǎn)云測(cè)量值,構(gòu)建輻射圖的幾何結(jié)構(gòu)。

VIO子系統(tǒng)分兩步恢復(fù)地圖的輻射信息:幀到幀VIO更新通過(guò)最小化幀到幀PnP重投影誤差來(lái)估計(jì)系統(tǒng)狀態(tài),而幀到地圖VIO更新則最小化地圖點(diǎn)云和當(dāng)前圖像之間的輻射誤差。這兩個(gè)子系統(tǒng)在流形誤差狀態(tài)迭代卡爾曼濾波器框架(ESIKF)[43]內(nèi)緊密耦合,其中激光雷達(dá)和攝像機(jī)視覺(jué)測(cè)量在各自的數(shù)據(jù)接收時(shí)間融合到相同的系統(tǒng)狀態(tài)。

6909bc32-4da8-11ed-a3b6-dac502259ad0.png

點(diǎn)

本文的輻射圖由全局框架中的地圖點(diǎn)組成,每個(gè)點(diǎn)P的結(jié)構(gòu)如下所示:

691c962c-4da8-11ed-a3b6-dac502259ad0.png

體素

為了有效地查詢輻射圖中的點(diǎn),論文將地圖點(diǎn)設(shè)置為固定大小(0.1m×0.1m×0.1m)的體素。如果一個(gè)體素近期附加了點(diǎn)(例如最近1秒),則將該體素標(biāo)記為激活。否則,此體素將標(biāo)記為停用。

彩色相機(jī)光度模型

相機(jī)以圖像的形式觀察現(xiàn)實(shí)世界的輻射,圖像由像素強(qiáng)度的2D數(shù)組組成。在本文中基于[44]對(duì)相機(jī)的圖像形成過(guò)程進(jìn)行建模,并將灰色相機(jī)模型進(jìn)一步擴(kuò)展到彩色相機(jī)。如圖3所示,對(duì)于現(xiàn)實(shí)世界中的點(diǎn)P,它反射來(lái)自光源(例如太陽(yáng))的入射光。反射光通過(guò)相機(jī)鏡頭,最終到達(dá)CMOS傳感器,傳感器記錄反射光的強(qiáng)度,并在輸出圖像中創(chuàng)建像素通道。記錄的強(qiáng)度由輻射度決定,輻射度是點(diǎn)P反射功率的測(cè)量值。

692c32a8-4da8-11ed-a3b6-dac502259ad0.png

為了建模上述成像過(guò)程,使用表示點(diǎn)P的輻射度。由于彩色相機(jī)的CMOS傳感器中有三個(gè)通道:紅色、綠色和藍(lán)色,因此輻射度有三個(gè)分量:、、 。對(duì)于每個(gè)通道,穿過(guò)相機(jī)鏡頭的光線有如下能量:

6943a186-4da8-11ed-a3b6-dac502259ad0.png

拍攝圖像時(shí),捕獲的輻射度隨時(shí)間(即曝光時(shí)間)進(jìn)行積分。然后,通過(guò)相機(jī)響應(yīng)函數(shù)將累積輻射度轉(zhuǎn)換為像素強(qiáng)度輸出:

694bcf00-4da8-11ed-a3b6-dac502259ad0.png

由于真實(shí)的相機(jī)傳感器具有有限的動(dòng)態(tài)范圍,并且輻射的物理尺度無(wú)法恢復(fù),因此可以將像素強(qiáng)度歸一化到0-1之間。 不同通道通常具有不同的非線性響應(yīng)函數(shù),它們可以根據(jù)[45]中的方法與vignetting factor一起離線校準(zhǔn)。本文的曝光時(shí)間是在線估計(jì)的。根據(jù)校準(zhǔn)和估計(jì)結(jié)果,點(diǎn)P相對(duì)于觀測(cè)像素值的輻射度可計(jì)算為:

69587df4-4da8-11ed-a3b6-dac502259ad0.png


狀態(tài)

最終狀態(tài)x定義如下:

69637b6e-4da8-11ed-a3b6-dac502259ad0.png

激光雷達(dá)慣性里程計(jì)(LIO)

論文的LIO子系統(tǒng)通過(guò)將新的LiDAR點(diǎn)云配準(zhǔn)到全局地圖來(lái)重建環(huán)境的幾何結(jié)構(gòu)。即使用generalized-iterative closet point(GICP)方法[46],通過(guò)最小化掃描中每個(gè)點(diǎn)云到地圖中相應(yīng)點(diǎn)擬合的平面的距離,迭代估計(jì)LiDAR姿態(tài)(和其他系統(tǒng)狀態(tài))。然后使用估計(jì)的狀態(tài)估計(jì)值將新點(diǎn)附加到地圖。

LiDAR point-to-plane residual

如圖2所示,論文的LIO子系統(tǒng)構(gòu)建了全局地圖的幾何結(jié)構(gòu)。對(duì)于第k個(gè)輸入LiDAR掃描,首先使用在[22]中引入的IMU反向傳播來(lái)補(bǔ)償幀內(nèi)運(yùn)動(dòng)。假設(shè)是運(yùn)動(dòng)補(bǔ)償后m個(gè)LiDAR點(diǎn)的集合,計(jì)算的每個(gè)原始點(diǎn)(或下采樣子集)的殘差,其中s是點(diǎn)的索引,上標(biāo)L表示點(diǎn)在LiDAR參考幀中的表示。 基于當(dāng)前迭代的估計(jì),將從LiDAR幀轉(zhuǎn)換到全局幀:

696cb31e-4da8-11ed-a3b6-dac502259ad0.png

為了將點(diǎn)云配準(zhǔn)到全局地圖,論文搜索地圖中最近的五個(gè)點(diǎn)。為了加速最近鄰搜索,地圖點(diǎn)被組織成incremental k-d tree(參見(jiàn)[23])。使用找到的最近鄰點(diǎn)擬合一個(gè)具有法向和質(zhì)心的平面,然后使用激光雷達(dá)測(cè)量殘差:

6976c82c-4da8-11ed-a3b6-dac502259ad0.png


LIO ESIKF update

理想情況下,上式中的殘差應(yīng)為零。然而,由于中的估計(jì)誤差和LiDAR測(cè)量噪聲,該殘差通常不是零,可以用于細(xì)化狀態(tài)估計(jì)。具體來(lái)說(shuō),假設(shè)是點(diǎn)的測(cè)量噪聲,則真值和測(cè)量值的關(guān)系如下所示:

69802e3a-4da8-11ed-a3b6-dac502259ad0.png

該真實(shí)點(diǎn)位置和真實(shí)狀態(tài)可以推導(dǎo)出下式:

6992a092-4da8-11ed-a3b6-dac502259ad0.png

上式構(gòu)成的觀測(cè)分布,它與IMU傳播的先驗(yàn)分布相結(jié)合得到:

69bd879e-4da8-11ed-a3b6-dac502259ad0.png

求解上式得到的Maximum A-Posteriori(MAP)估計(jì)值,然后更新到中,如下所示:

69e6b380-4da8-11ed-a3b6-dac502259ad0.png

迭代直至收斂(即更新小于給定閾值)。然后將收斂狀態(tài)估計(jì)值用作IMU傳播的起點(diǎn),直到接收到下一個(gè)LiDAR掃描或相機(jī)圖像。此外,收斂估計(jì)值用于將當(dāng)前LiDAR掃描中的點(diǎn)添加到全局地圖中,如下所示。對(duì)于第s個(gè)點(diǎn),其在全局幀中的位置首先通過(guò)(6)獲得。如果在地圖中有距離為1cm的附近點(diǎn),將被丟棄,以保持1cm的空間分辨率。否則,將在地圖中創(chuàng)建一個(gè)新的點(diǎn)結(jié)構(gòu):

69efaf76-4da8-11ed-a3b6-dac502259ad0.png

視覺(jué)慣性里程計(jì)(VIO)

當(dāng)LIO子系統(tǒng)重建環(huán)境的幾何結(jié)構(gòu)時(shí),VIO子系統(tǒng)從輸入的彩色圖像中恢復(fù)輻射信息。更具體地說(shuō),VIO子系統(tǒng)從全局地圖向當(dāng)前圖像投影一定數(shù)量的點(diǎn)(即跟蹤點(diǎn)),然后通過(guò)最小化這些點(diǎn)的輻射誤差來(lái)迭代估計(jì)相機(jī)姿態(tài)(和其他系統(tǒng)狀態(tài))。為了提高計(jì)算效率,只使用一組稀疏的跟蹤地圖點(diǎn)。

論文提出的框架不同于以前基于光度的方法[33]、[47],這些方法通過(guò)考慮所有相鄰像素(即patch)的光度誤差來(lái)構(gòu)成點(diǎn)的殘差。這些基于patch的方法具有更強(qiáng)的魯棒性和更快的收斂速度,然而對(duì)平移或旋轉(zhuǎn)都不是不變的,即需要在兩個(gè)patch對(duì)齊時(shí)估計(jì)相對(duì)變換。

此外,這些方法假設(shè)patch中所有像素的深度與中心點(diǎn)相同,所以殘差的計(jì)算并不精確。另一方面,論文的VIO在逐像素上操作,利用單個(gè)地圖點(diǎn)的輻射來(lái)計(jì)算殘差。在VIO中同時(shí)更新的輻射度是世界上某個(gè)點(diǎn)的固有屬性,對(duì)攝影機(jī)平移和旋轉(zhuǎn)都是不變的。

為了確保穩(wěn)健和快速收斂,論文設(shè)計(jì)了圖2所示的兩步流水線,其中在第一步(即 frame-to-frame VIO)中,利用frame-to-frame光流跟蹤最后一幀中觀察到的地圖點(diǎn),并通過(guò)最小化跟蹤點(diǎn)的PnP重投影誤差來(lái)獲得系統(tǒng)狀態(tài)的粗略估計(jì)。然后,在第二步(即frame-to-map VIO)中,通過(guò)最小化地圖點(diǎn)的亮度和當(dāng)前圖像中其投影位置的像素強(qiáng)度之間的差異,進(jìn)一步細(xì)化狀態(tài)估計(jì)。

通過(guò)收斂狀態(tài)估計(jì)和原始輸入圖像,論文最終根據(jù)當(dāng)前圖像測(cè)量更新地圖點(diǎn)的輻射度。

光度矯正

對(duì)于輸入圖像,首先校正圖像non-linear CRF 和vignetting factor ,其已經(jīng)預(yù)先校準(zhǔn),以獲得測(cè)光校正圖像,其像素位置的第i通道為:

6a03b3fe-4da8-11ed-a3b6-dac502259ad0.png

測(cè)光校正圖像 之后在VIO管道中使用,包括frame-to-frame VIO、frame-to-map VIO和輻射恢復(fù)。

Frame-to-frame VIO

Perspective-n-Point reprojection error

假設(shè)跟蹤了m個(gè)在最后一幀圖像中的地圖點(diǎn)及其在圖像中的投影位置。論文使用Lucas Kanade光流來(lái)定位這些點(diǎn)在當(dāng)前圖像中的位置。然后迭代地最小化點(diǎn)P的重投影誤差,以獲得狀態(tài)的粗略估計(jì)(見(jiàn)圖4)。

6a0d5918-4da8-11ed-a3b6-dac502259ad0.png

投影誤差表示如下:

6a16a5ae-4da8-11ed-a3b6-dac502259ad0.png

6a20223c-4da8-11ed-a3b6-dac502259ad0.png

Frame-to-frame VIO Update

與LIO更新類似,中的狀態(tài)估計(jì)誤差和相機(jī)測(cè)量噪聲將導(dǎo)致(14)中的某個(gè)殘差,從中可以如下更新?tīng)顟B(tài)估計(jì)。首先(14)中的測(cè)量噪聲由兩個(gè)來(lái)源組成:一個(gè)是的像素跟蹤誤差,另一個(gè)是地圖點(diǎn)定位誤差:

6a48b0da-4da8-11ed-a3b6-dac502259ad0.png

類似的,校正此類噪聲并使用真實(shí)的系統(tǒng)狀態(tài)應(yīng)導(dǎo)致零殘差:

6a5c05ea-4da8-11ed-a3b6-dac502259ad0.png

上式構(gòu)成了的觀測(cè)分布,將其與與IMU傳播相結(jié)合,以獲得狀態(tài)的MAP估計(jì)值,方法與LIO更新相同。然后收斂的狀態(tài)估計(jì)值用于細(xì)化frame-to-map VIO。

Frame-to-map VIO

Frame-to-map radiance error

frame-to-frame VIO更新可以提供良好的狀態(tài)估計(jì),通過(guò)最小化跟蹤的地圖點(diǎn)P的輻射誤差,frame-to-map VIO更新會(huì)進(jìn)一步細(xì)化。利用當(dāng)前迭代的狀態(tài)估計(jì)(包含估計(jì)的相機(jī)姿態(tài)、內(nèi)外參和曝光時(shí)間),進(jìn)一步將跟蹤的地圖點(diǎn)投影到圖像平面,以獲得其像素位置。然后,由表示的觀測(cè)輻射度可以由下式獲得:

6a6f0ef6-4da8-11ed-a3b6-dac502259ad0.png

最后,frame-to-map輻射誤差由下式獲得:

6a793b56-4da8-11ed-a3b6-dac502259ad0.png


Frame-to-map VIO update

上式中的測(cè)量噪聲來(lái)自輻射分量和:

6a8526d2-4da8-11ed-a3b6-dac502259ad0.png


6a8f290c-4da8-11ed-a3b6-dac502259ad0.png

結(jié)合(19)、(20)和(21)進(jìn)一步得到了真實(shí)零殘差的一階泰勒展開式:

6a9ba9a2-4da8-11ed-a3b6-dac502259ad0.png

與之前類似,(22)構(gòu)成了狀態(tài)的觀測(cè)分布,該分布與IMU傳播相結(jié)合,以獲得該狀態(tài)的MAP估計(jì)值。

Recovery of radiance information

6aa60582-4da8-11ed-a3b6-dac502259ad0.png

在frame-to-map VIO更新后,便得到了當(dāng)前圖像的精確姿態(tài)。然后進(jìn)行貝葉斯更新以確定所有地圖點(diǎn)的最佳輻射度,從而使每個(gè)點(diǎn)與其對(duì)應(yīng)圖像之間的平均輻射度誤差最小。 進(jìn)一步檢索所有激活體素中的點(diǎn)。假設(shè)檢索到的點(diǎn)集為Q。對(duì)于落在當(dāng)前圖像FoV中的第s個(gè)點(diǎn),首先通過(guò)(19)獲取觀測(cè)到的輻射向量,通過(guò)(21)獲得其協(xié)方差。然后,如果是LIO子系統(tǒng)附加的一個(gè)新點(diǎn)且,則我們?cè)O(shè)置:

6ab2db4a-4da8-11ed-a3b6-dac502259ad0.png

否則,通過(guò)貝葉斯更新(見(jiàn)圖6),將保存在地圖中的輻射矢量與新觀測(cè)到的輻射矢量進(jìn)行融合:

6abfa456-4da8-11ed-a3b6-dac502259ad0.png



Update of the tracking points

在恢復(fù)輻射信息后,論文更新跟蹤點(diǎn)集P以供下一幀圖像使用。首先,如果(14)中的投影誤差或(19)中的輻射誤差過(guò)大,就從當(dāng)前P中刪除點(diǎn),并刪除不屬于當(dāng)前圖像FoV的點(diǎn)。其次,論文將Q中的每個(gè)點(diǎn)投影到當(dāng)前圖像中,如果在50像素的鄰域中沒(méi)有其他跟蹤點(diǎn),則將其添加到P中。

實(shí)驗(yàn)

論文進(jìn)行了大量實(shí)驗(yàn),從三個(gè)方面驗(yàn)證了提出的系統(tǒng)相對(duì)于其他同類系統(tǒng)的優(yōu)勢(shì):

1)為了驗(yàn)證定位的準(zhǔn)確性,在公開數(shù)據(jù)集(NCLT數(shù)據(jù)集)上定量比較了R3LIVE++與其他SOTA的SLAM系統(tǒng);

2) 為了驗(yàn)證框架的魯棒性,在攝像機(jī)和激光雷達(dá)傳感器退化的各種具有挑戰(zhàn)性的場(chǎng)景下進(jìn)行測(cè)試;

3) 為了評(píng)估R3LIVE++在重建輻射圖時(shí)的精度,論文將其與現(xiàn)有基線進(jìn)行比較,以估算相機(jī)曝光時(shí)間并計(jì)算每個(gè)圖像的平均光度誤差。在實(shí)驗(yàn)中,使用了兩個(gè)數(shù)據(jù)集進(jìn)行評(píng)估:NCLT數(shù)據(jù)集和私有的R3LIVE數(shù)據(jù)集。

R3LIVE數(shù)據(jù)集收集于香港大學(xué)(HKU)和香港科技大學(xué)(HKUST)的校園內(nèi)。如表2所示,數(shù)據(jù)集包含13個(gè)序列,通過(guò)探索室內(nèi)和室外環(huán)境,在一天中不同時(shí)間(即上午、中午和晚上)的不同場(chǎng)景(如人行道、公園、森林等)中收集這些序列。這使得數(shù)據(jù)集能夠捕獲具有不同照明條件下的結(jié)構(gòu)化城市建筑和雜亂現(xiàn)場(chǎng)環(huán)境。

數(shù)據(jù)集還包括三個(gè)退化序列,其中激光雷達(dá)或相機(jī)(或兩者)偶爾面對(duì)設(shè)備,使其退化為單個(gè)視覺(jué)或無(wú)紋理平面(例如,墻、地面)。總行程8.4km,持續(xù)時(shí)間達(dá)到2.4h。

6ad6c726-4da8-11ed-a3b6-dac502259ad0.png


定位準(zhǔn)確性評(píng)估

論文將R3LIVE++與其他SLAM系統(tǒng)進(jìn)行對(duì)比,包括LIO-SAM[19]、LVI-SAM[40]、FAST-LIO2[23]和R2LIVE[41]。 對(duì)比結(jié)果如下表所示:
6b3a9d78-4da8-11ed-a3b6-dac502259ad0.png

在圖10中,論文對(duì)比疊加了所有25條地面真實(shí)軌跡(左圖)和R3LIVE的結(jié)果(右圖)。可以看出,R3LIVE++系統(tǒng)估計(jì)的疊加軌跡與GT吻合得很好,并且每個(gè)軌跡仍然可以清楚地區(qū)分,沒(méi)有明顯的誤差。請(qǐng)注意,這25條軌跡是在同一校園區(qū)域內(nèi)一天中的不同時(shí)間和一年中的不同季節(jié)采集的,但R3LIVE++仍然可以生成一致且可靠的軌跡估計(jì),證明了系統(tǒng)的魯棒性。
6b4b5ec4-4da8-11ed-a3b6-dac502259ad0.png


魯棒性評(píng)估

LiDAR退化場(chǎng)景下的魯棒性評(píng)估:可以看出,由于面對(duì)單個(gè)平面時(shí)激光雷達(dá)退化,所有三個(gè)LIO系統(tǒng)都失敗了,沒(méi)有返回起點(diǎn)。相比之下,通過(guò)利用視覺(jué)圖像中的線索,R3LIVE++在這兩個(gè)序列中都能很好地工作,并成功地回到起點(diǎn)。 6b606df0-4da8-11ed-a3b6-dac502259ad0.png

LiDAR退化和視覺(jué)紋理較少環(huán)境下的魯棒性評(píng)估:在這個(gè)實(shí)驗(yàn)中,R3LIVE++挑戰(zhàn)了SLAM中最困難的場(chǎng)景之一,激光雷達(dá)和相機(jī)都會(huì)退化。傳感器裝置穿過(guò)一個(gè)狹窄的“T”形通道(見(jiàn)圖11)

6b6edff2-4da8-11ed-a3b6-dac502259ad0.png

利用原始像素顏色信息,并將其與LiDAR點(diǎn)云測(cè)量緊密融合,R3LIVE++可以在這種極其困難的場(chǎng)景中“生存”。圖12是姿態(tài)估計(jì)的結(jié)果,穿過(guò)“墻-1”和“墻-2”的階段分別用紫色和黃色陰影表示。估計(jì)協(xié)方差也如圖12所示,它在整個(gè)估計(jì)軌跡上有界,表明R3LIVE++的估計(jì)質(zhì)量在整個(gè)過(guò)程中是穩(wěn)定的。

6ba4d292-4da8-11ed-a3b6-dac502259ad0.png


輻射圖重建評(píng)估

由于無(wú)法測(cè)量環(huán)境的真實(shí)輻射圖,論文使用兩個(gè)指標(biāo)來(lái)評(píng)估精度:一個(gè)是相機(jī)曝光時(shí)間的估計(jì)質(zhì)量,另一個(gè)是重建的輻射圖與測(cè)量圖像之間的平均光度誤差。

曝光時(shí)間估計(jì):在這個(gè)實(shí)驗(yàn)中,論文通過(guò)將估計(jì)的相機(jī)曝光時(shí)間與從相機(jī)API讀取的GT進(jìn)行比較來(lái)評(píng)估其準(zhǔn)確性。結(jié)果如圖13和表4所示。

6bd9f922-4da8-11ed-a3b6-dac502259ad0.png6c080952-4da8-11ed-a3b6-dac502259ad0.png

輻射圖評(píng)估:為了評(píng)估輻射重建誤差,在地圖重建后使用估計(jì)的相機(jī)姿態(tài)和校準(zhǔn)的光度參數(shù),將地圖中所有具有輻射信息的點(diǎn)重新投影到每個(gè)圖像幀。然后計(jì)算地圖點(diǎn)顏色和圖像在投影像素位置的RGB值之間的光度誤差。計(jì)算每個(gè)圖像幀的平均光度誤差,以評(píng)估重建的輻射圖精度。實(shí)驗(yàn)結(jié)果如圖14和表5所示:
6c1b8aae-4da8-11ed-a3b6-dac502259ad0.png6c2e439c-4da8-11ed-a3b6-dac502259ad0.png

可以看出,R3LIVE++在所有序列中始終實(shí)現(xiàn)了最低的光度誤差,其次是R3LIVE。圖15顯示了重建輻射圖的一些特寫鏡頭,從中可以清楚地分辨物體上的單詞。此外,圖16展示了R3LIVE數(shù)據(jù)集中“香港大學(xué)主樓”序列的重建輻射圖,室內(nèi)和室外細(xì)節(jié)(例如道路上的標(biāo)記)都非常清晰,表明R3LIVE++具有較高的精度。

6c3d9766-4da8-11ed-a3b6-dac502259ad0.png6d26d3ae-4da8-11ed-a3b6-dac502259ad0.png

運(yùn)行時(shí)間分析

本節(jié)分析SLAM系統(tǒng)在純CPU PC(配備Intel i7-9700K CPU和64GB RAM)上的平均耗時(shí)。論文計(jì)算了兩個(gè)數(shù)據(jù)集所有序列的平均耗時(shí),結(jié)果如表6和表7所示。在NCLT數(shù)據(jù)集上,每次LiDAR掃描需要34.3 ms,相機(jī)需要16.6 ms的處理時(shí)間。

6d6a64ca-4da8-11ed-a3b6-dac502259ad0.png6d811fb2-4da8-11ed-a3b6-dac502259ad0.png

R3LIVE++的應(yīng)用

High dynamic range (HDR) imaging

在重建輻射圖后,可以進(jìn)一步渲染圖像,可視化結(jié)果如圖17所示:

6d8e8dd2-4da8-11ed-a3b6-dac502259ad0.png


Mesh reconstruction and texturing

當(dāng)R3LIVE++實(shí)時(shí)重建彩色3D地圖時(shí),論文還開發(fā)了軟件程序來(lái)離線對(duì)重建的地圖進(jìn)行網(wǎng)格劃分和紋理處理(見(jiàn)圖18)。

6dbd130a-4da8-11ed-a3b6-dac502259ad0.png

Toward various of 3D applications

通過(guò)開發(fā)的軟件,論文將將重建的3D地圖導(dǎo)出到Unreal Engine[60],以支持一系列3D應(yīng)用程序。如圖19所示的汽車模擬器、視頻游戲等 6dd4a10a-4da8-11ed-a3b6-dac502259ad0.png

結(jié)論和未來(lái)工作

結(jié)論

論文提出了一種新的激光雷達(dá)慣性視覺(jué)融合框架R3LIVE++,以實(shí)現(xiàn)魯棒和精確的狀態(tài)估計(jì),同時(shí)動(dòng)態(tài)重建輻射圖。該框架由兩個(gè)子系統(tǒng)(即LIO和VIO)組成,這兩個(gè)子系統(tǒng)共同增量地實(shí)時(shí)構(gòu)建環(huán)境的3D輻射圖。通過(guò)將三種不同類型傳感器的測(cè)量值緊密融合,R3LIVE++可以實(shí)現(xiàn)更高的定位精度,同時(shí)對(duì)傳感器退化的場(chǎng)景具有足夠的魯棒性。

論文通過(guò)真實(shí)世界的實(shí)驗(yàn),在定位精度、魯棒性和輻射圖重建精度方面驗(yàn)證了R3LIVE++的有效性。在NCLT數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,R3LIVE++超越了以往SOTA的SLAM系統(tǒng)。對(duì)私有數(shù)據(jù)集(R3LIVE數(shù)據(jù)集)的評(píng)估表明,R3LIVE++對(duì)LiDAR或相機(jī)測(cè)量退化的極端挑戰(zhàn)性場(chǎng)景具有魯棒性。最后與其他算法相比,R3LIVE++可以更準(zhǔn)確地估計(jì)相機(jī)的曝光時(shí)間,并重建環(huán)境的真實(shí)輻射信息,與圖像中的測(cè)量值相比,誤差要小得多。

為了證明R3LIVE++的可擴(kuò)展性,論文基于重建的輻射圖開發(fā)了幾個(gè)應(yīng)用程序,例如高動(dòng)態(tài)范圍(HDR)成像、虛擬環(huán)境探索和3D視頻游戲。

未來(lái)工作

在R3LIVE++中,輻射圖是用包含輻射信息的3D點(diǎn)云重建的,因此無(wú)法從輻射圖中渲染高分辨率圖像,因?yàn)檩椛鋱D的點(diǎn)云密度有限(論文設(shè)置為1cm)。雖然可以進(jìn)一步增加點(diǎn)云密度,但也會(huì)進(jìn)一步增加耗時(shí)。此外點(diǎn)云密度還受到激光雷達(dá)傳感器測(cè)量的原始點(diǎn)云密度的限制。我們注意到圖像通常具有更高的分辨率,未來(lái)可以探索如何在融合框架中充分利用此類高分辨率圖像。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • HDR
    HDR
    +關(guān)注

    關(guān)注

    4

    文章

    288

    瀏覽量

    32613
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    440

    瀏覽量

    32470
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    971

    文章

    4230

    瀏覽量

    192686

原文標(biāo)題:港大重磅SLAM新作!R3LIVE++:一個(gè)實(shí)時(shí)魯棒的緊耦合激光雷達(dá)-慣性-視覺(jué)融合框架

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    RGB+EVS視覺(jué)融合相機(jī):事件相機(jī)的革命性突破?

    事件相機(jī)(EVS)是一種新型的視覺(jué)傳感器,其設(shè)計(jì)靈感來(lái)源于生物視覺(jué)系統(tǒng)。
    的頭像 發(fā)表于 07-01 14:08 ?794次閱讀
    RGB+EVS<b class='flag-5'>視覺(jué)</b><b class='flag-5'>融合</b>相機(jī):事件相機(jī)的革命性突破?

    霍尼韋爾推出新慣性導(dǎo)航系統(tǒng) HGuide-N380

    3D地圖測(cè)量、測(cè)繪及其它主要應(yīng)用領(lǐng)域,雖設(shè)備內(nèi)部空間有限,但對(duì)性能的要求卻不能有一絲一毫讓步,因此需要一種小巧且高性能的慣性導(dǎo)航系統(tǒng)。為達(dá)到這種要求,霍尼韋爾開發(fā)設(shè)計(jì)了HGuiden
    的頭像 發(fā)表于 06-04 11:09 ?367次閱讀
    霍尼韋爾推出新<b class='flag-5'>一</b>代<b class='flag-5'>慣性</b>導(dǎo)航系統(tǒng) HGuide-N380

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    結(jié)合IMU(慣性測(cè)量單元)進(jìn)行多傳感器融合。 三、總結(jié)與展望 技術(shù)融合趨勢(shì) 機(jī)器人視覺(jué)與SLAM的結(jié)合(如視覺(jué)
    發(fā)表于 05-03 19:41

    一種新型激光雷達(dá)慣性視覺(jué)里程計(jì)系統(tǒng)介紹

    針對(duì)具有挑戰(zhàn)性的光照條件和惡劣環(huán)境,本文提出了LIR-LIVO,這是一種輕量級(jí)且穩(wěn)健的激光雷達(dá)-慣性-視覺(jué)里程計(jì)系統(tǒng)。通過(guò)采用諸如利用深度與激光雷達(dá)點(diǎn)云關(guān)聯(lián)實(shí)現(xiàn)特征的均勻深度分布等先進(jìn)技術(shù),以及利用
    的頭像 發(fā)表于 04-28 11:18 ?330次閱讀
    <b class='flag-5'>一種</b>新型激光雷達(dá)<b class='flag-5'>慣性</b><b class='flag-5'>視覺(jué)</b>里程計(jì)系統(tǒng)介紹

    一種實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    針對(duì)現(xiàn)有VSLAM系統(tǒng)語(yǔ)義表達(dá)不足、地圖可解釋性差的問(wèn)題,本文提出vS-Graphs,一種實(shí)時(shí)多線程VSLAM框架。該方案顯著提升了重建地圖的語(yǔ)義豐富度、可解釋性及定位精度。實(shí)驗(yàn)表明
    的頭像 發(fā)表于 04-19 14:07 ?373次閱讀
    <b class='flag-5'>一種</b>實(shí)時(shí)多線程VSLAM<b class='flag-5'>框架</b>vS-Graphs介紹

    視美泰EVS事件融合相機(jī)新品“靈光號(hào)”正式發(fā)布,開啟視覺(jué)新紀(jì)元

    近日,視美泰正式推出了最新研發(fā)成果——EVS事件融合相機(jī)“靈光號(hào)”。這款事件融合相機(jī)的發(fā)布標(biāo)志著視美泰在視覺(jué)事件捕捉技術(shù)領(lǐng)域邁出了重要的
    的頭像 發(fā)表于 02-05 17:10 ?1053次閱讀
    視美泰EVS事件<b class='flag-5'>融合</b>相機(jī)新品“靈光<b class='flag-5'>一</b>號(hào)”正式發(fā)布,開啟<b class='flag-5'>視覺(jué)</b>新紀(jì)元

    慣性傳感器的分類和應(yīng)用

    慣性傳感器是一種利用物體慣性效應(yīng)來(lái)測(cè)量加速度、角速度等運(yùn)動(dòng)參數(shù)的傳感器。隨著微機(jī)電系統(tǒng)(MEMS)技術(shù)的快速發(fā)展,慣性傳感器已經(jīng)廣泛應(yīng)用于汽車、航空航天、消費(fèi)電子、工業(yè)自動(dòng)化等多個(gè)領(lǐng)域
    的頭像 發(fā)表于 02-03 14:20 ?2152次閱讀

    一種基于MASt3R的實(shí)時(shí)稠密SLAM系統(tǒng)

    本文提出了一種即插即用的單目SLAM系統(tǒng),能夠在15FPS的幀率下生成全局致的位姿和稠密幾何圖形。 01 ? 本文核心內(nèi)容 視覺(jué)SLAM乃是當(dāng)今機(jī)器人技術(shù)與增強(qiáng)現(xiàn)實(shí)產(chǎn)品的基礎(chǔ)性構(gòu)建模塊。通過(guò)
    的頭像 發(fā)表于 12-27 15:25 ?1400次閱讀

    一種面向飛行試驗(yàn)的數(shù)據(jù)融合框架

    天地氣動(dòng)數(shù)據(jù)致性,針對(duì)某外形飛行試驗(yàn)數(shù)據(jù)開展了典型對(duì)象的天地氣動(dòng)數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機(jī)森林方法,本文提出了一種面向飛行試驗(yàn)的數(shù)據(jù)融合
    的頭像 發(fā)表于 11-27 11:34 ?821次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗(yàn)的數(shù)據(jù)<b class='flag-5'>融合</b><b class='flag-5'>框架</b>

    基于視覺(jué)語(yǔ)言模型的導(dǎo)航框架VLMnav

    本文提出了一種視覺(jué)語(yǔ)言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在步中直接選擇動(dòng)作。驚訝的是,我們發(fā)現(xiàn)VLM可以作為
    的頭像 發(fā)表于 11-22 09:42 ?780次閱讀

    基于旋轉(zhuǎn)平移解耦框架視覺(jué)慣性初始化方法

    精確和魯棒的初始化對(duì)于視覺(jué)慣性里程計(jì)(VIO)至關(guān)重要,因?yàn)椴涣嫉某跏蓟瘯?huì)嚴(yán)重降低姿態(tài)精度。
    的頭像 發(fā)表于 11-01 10:16 ?952次閱讀
    基于旋轉(zhuǎn)平移解耦<b class='flag-5'>框架</b>的<b class='flag-5'>視覺(jué)</b><b class='flag-5'>慣性</b>初始化方法

    一種全新開源SfM框架MASt3R

    運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SfM)是計(jì)算機(jī)視覺(jué)領(lǐng)域個(gè)長(zhǎng)期存在的問(wèn)題,旨在根據(jù)每個(gè)相機(jī)拍攝的圖像來(lái)估計(jì)場(chǎng)景的3D幾何結(jié)構(gòu)以及觀測(cè)該場(chǎng)景的相機(jī)的參數(shù)。由于它方便地同時(shí)為相機(jī)和地圖提供信息,因此構(gòu)成了許多實(shí)用計(jì)
    的頭像 發(fā)表于 10-28 14:13 ?1877次閱讀
    <b class='flag-5'>一種</b>全新開源SfM<b class='flag-5'>框架</b>MASt<b class='flag-5'>3R</b>

    一種完全分布式的點(diǎn)線協(xié)同視覺(jué)慣性導(dǎo)航系統(tǒng)

    在本文中,我們提出了一種完全分布式的點(diǎn)線協(xié)同視覺(jué)慣性導(dǎo)航系統(tǒng)。我們通過(guò)蒙特卡羅模擬和真實(shí)環(huán)境數(shù)據(jù)集,在稠密特征或稀疏特征環(huán)境下將所提出的算法與其他四算法進(jìn)行了比較。所有結(jié)果表明,我們
    的頭像 發(fā)表于 09-30 14:45 ?886次閱讀
    <b class='flag-5'>一種</b>完全分布式的點(diǎn)線協(xié)同<b class='flag-5'>視覺(jué)</b><b class='flag-5'>慣性</b>導(dǎo)航系統(tǒng)

    LIDAR激光雷達(dá)逆向建模能用到revit當(dāng)中嗎

    LIDAR激光雷達(dá)逆向建模是一種利用激光雷達(dá)技術(shù)獲取物體表面數(shù)據(jù),然后通過(guò)計(jì)算機(jī)軟件進(jìn)行建模的方法。在建筑行業(yè)中,這種方法可以用于建筑物的三維建模、結(jié)構(gòu)分析、施工模擬等。Revit是款專業(yè)的建筑
    的頭像 發(fā)表于 08-29 17:23 ?933次閱讀

    計(jì)算機(jī)視覺(jué)中的圖像融合

    在許多計(jì)算機(jī)視覺(jué)應(yīng)用中(例如機(jī)器人運(yùn)動(dòng)和醫(yī)學(xué)成像),需要將多個(gè)圖像的相關(guān)信息整合到單圖像中。這種圖像融合可以提供更高的可靠性、準(zhǔn)確性和數(shù)據(jù)質(zhì)量。多視圖融合可以提高圖像分辨率,并恢復(fù)場(chǎng)
    的頭像 發(fā)表于 08-01 08:28 ?1126次閱讀
    計(jì)算機(jī)<b class='flag-5'>視覺(jué)</b>中的圖像<b class='flag-5'>融合</b>
    主站蜘蛛池模板: 天堂网站www天堂资源在线 | 午夜精品福利视频 | 精品一区二区三区三区 | 免费一级网站 | 亚洲色图久久 | 人与禽一级一级毛片 | 色中色在线视频 | 国产视频综合 | 成人在线网| 91大神网址 | 18年大片免费在线 | 欧美午夜性刺激在线观看免费 | 精品国产第一国产综合精品gif | 在线午夜视频 | 天天干天天射天天舔 | 九色综合网 | 国产成年美女毛片80s | 亚洲wuma| 午夜一级免费视频 | 天天射日 | 欧美黄色大片免费 | 簧片免费视频 | 免费一级黄 | 国产乱码一区二区三区四川人 | 在线免费午夜视频 | 日日天天夜夜 | 午夜视频免费在线播放 | 午夜国产精品理论片久久影院 | 亚洲88av| 2021av网站| 99综合色| 美女张开腿露尿口给男人亲 | 亚洲国产成人久久77 | 午夜视频高清在线aaa | 日本人亚洲人成人 | 孩交精品xxxx视频视频 | 亚洲欧洲国产精品你懂的 | 色香欲综合成人免费视频 | 深夜看片在线观看18 | 国产精品久线观看视频 | 国产成人午夜片在线观看 |