在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

S3E:用于協(xié)作SLAM的大規(guī)模多模態(tài)數(shù)據(jù)集

3D視覺工坊 ? 來源:3D視覺工坊 ? 作者:3D視覺工坊 ? 2022-11-04 11:47 ? 次閱讀

0. 引言

機器人協(xié)作在搜索救援、工業(yè)自動化、智慧農(nóng)業(yè)等領(lǐng)域發(fā)展迅猛,而協(xié)同SLAM(C-SLAM)是實現(xiàn)多機器人協(xié)作的核心技術(shù)。現(xiàn)有的EuRoc、KITTI等數(shù)據(jù)集雖然在單機SLAM領(lǐng)域發(fā)揮了重要作用,但卻很難去評價多機協(xié)同的軌跡和建圖精度。近日,中山大學團隊開發(fā)了一種用于協(xié)作SLAM的大規(guī)模多模態(tài)數(shù)據(jù)集,由3個無人車沿四種軌跡采集,包含7個室外場景和5個室內(nèi)場景。這是第一個使用各種室內(nèi)和室外環(huán)境的激光雷達、視覺和慣性數(shù)據(jù)的C-SLAM數(shù)據(jù)集,研究機器人協(xié)作的小伙伴一定不要錯過!

2. 摘要

隨著使用一組機器人協(xié)作完成任務(wù)的要求越來越高,研究界對協(xié)作同步定位和地圖繪制越來越感興趣。不幸的是,現(xiàn)有的數(shù)據(jù)集在它們捕獲的協(xié)作軌跡的規(guī)模和變化方面是有限的,盡管不同主體之間的交互軌跡的一般化對于協(xié)作任務(wù)的整體可行性是至關(guān)重要的。為了幫助將研究社區(qū)的貢獻與現(xiàn)實世界的多主體協(xié)調(diào)SLAM問題結(jié)合起來,我們引入了S3E,這是一個由無人駕駛地面車輛車隊沿著四個設(shè)計的協(xié)作軌跡范例捕獲的新的大規(guī)模多模態(tài)數(shù)據(jù)集。S3E由7個室外和5個室內(nèi)場景組成,每個場景都超過200秒,由同步和校準良好的高質(zhì)量雙目相機、激光雷達和高頻IMU數(shù)據(jù)組成。至關(guān)重要的是,我們的努力在數(shù)據(jù)集大小、場景可變性和復雜性方面超過了以前的嘗試。它的平均記錄時間是開創(chuàng)性的EuRoC數(shù)據(jù)集的4倍。我們還提供仔細的數(shù)據(jù)集分析以及協(xié)作SLAM和單個對應方的基線。

3. 數(shù)據(jù)集介紹

3.1 數(shù)據(jù)采集車

如圖1所示是用于采集S3E數(shù)據(jù)集的無人車,每個無人車上都有2個高分辨率彩色相機、1個16線激光雷達、1個9軸IMU以及1個雙天線RTK。表1所示是無人車所使用傳感器的具體參數(shù)。 表1 傳感器設(shè)備參數(shù)

9c51d56a-5bf0-11ed-a3b6-dac502259ad0.png

無人車所使用的平臺是Agilex Scout Mini,它是一款四輪驅(qū)動、最高車速10km/h的全地形高速遙控移動平臺。在具體的數(shù)據(jù)采集過程中,作者使用Velodyne VLP-16 Puck來記錄360°點云數(shù)據(jù)。使用兩臺HikRobot MV-CS050-10GC GigE相機采集雙目視覺數(shù)據(jù),其中雙目相機的基線為360mm,圖像通過全局快門掃描捕獲,并從原始圖像降采樣到1224x1024。此外,還使用9軸Xsens MTi-30-2A8G4 IMU記錄三個加速度計和三個陀螺儀。為了進行驗證和測試,作者還使用Femtomes Nano-D RTK配備雙天線在GNSS可用區(qū)域捕獲軌跡真值,真值采集頻率為1 Hz。無人車平臺上所有傳感器的安裝位置如圖2所示,采集到的S3E數(shù)據(jù)集樣例如圖3所示。

9c79b454-5bf0-11ed-a3b6-dac502259ad0.jpg

圖2 傳感器布局和坐標系

9c985ca6-5bf0-11ed-a3b6-dac502259ad0.jpg

圖3 S3E數(shù)據(jù)集的數(shù)據(jù)示例,每行都顯示了不同平臺同時捕捉到的雙目圖像和點云。

3.2 傳感器同步

在多傳感器融合中,時間同步和傳感器校準至關(guān)重要。因此,作者在此方面也做了很多的工作。 (1) 時間同步:如圖4所示,S3E的同步系統(tǒng)使用Altera EP4CE10板作為觸發(fā)器,Intel NUC11TNKv7作為主機。對于不同機器人間的同步,作者把這個問題分成兩種情況來討論。首先,應用GNSS時間作為室外場景中的全局時間源來校準機器人的計時器。之后,在無GNSS系統(tǒng)中(室內(nèi)場景),所有機器人運行時間校準程序,通過無線網(wǎng)絡(luò)從PTP服務(wù)器獲取外部全局時間數(shù)據(jù)。 對于內(nèi)部同步,觸發(fā)單元周期性地產(chǎn)生脈沖來觸發(fā)激光雷達、雙目攝像機和IMU。值得注意的是,FPGA產(chǎn)生1 Hz脈沖來觸發(fā)激光雷達,然后激光雷達返回10 Hz數(shù)據(jù),并在接收到觸發(fā)信號后刷新內(nèi)部計數(shù)器寄存器。攝像機和IMU在收到觸發(fā)脈沖后立即返回數(shù)據(jù)。 (2) 傳感器校準:在圖2所示的傳感器布局中,所有的坐標系都遵循右手定則。作者使用標準棋盤校準來運行相機的內(nèi)部校準。對于激光雷達和IMU,由廠家進行內(nèi)部傳感器校準。之后進行雙目相機聯(lián)合標定和激光雷達-相機聯(lián)合標定。此外,在利用Allan標準差對IMU噪聲建模后,作者還進行了相機和IMU的聯(lián)合標定。

9cc67f78-5bf0-11ed-a3b6-dac502259ad0.jpg

圖4 基于FPGA的同步系統(tǒng)架構(gòu)

3.3 軌跡范例

如圖5所示,在S3E數(shù)據(jù)集中,作者設(shè)計了遵循四種不同的機器人內(nèi)/機器人間規(guī)范的閉環(huán)軌跡。 第一種軌跡是C-SLAM應用中的典型情況,即機器人編隊同時繞目標運行,主要用于對目標進行稠密三維重建。第二個軌跡模擬區(qū)域搜索和救援任務(wù),每個機器人在不同的區(qū)域搜索,并在交互過程中與其他機器人共享信息。這種情況要求C-SLAM算法在小的公共區(qū)域內(nèi)具有可靠的機器人內(nèi)部閉環(huán)能力和高效的機器人之間閉環(huán)能力。第三條軌跡集中于僅具有機器人間環(huán)路閉合的場景,所有的機器人都從不同的地方開始,并在路徑中的一些會合點前進,最后在同一個地方相遇。第四條軌跡中,機器人從不同的地方開始,終點是同一個地點。這種情況在C-SLAM中非常困難,因為所有的機器人只在終點相遇,幾乎沒有為回環(huán)提供任何信息。 圖6顯示了室外環(huán)境中S3E數(shù)據(jù)集的軌跡,它包含校園內(nèi)五個有代表性的功能區(qū)域,即廣場、圖書館、學院、操場和宿舍。

9cff2f4e-5bf0-11ed-a3b6-dac502259ad0.jpg

圖5 四種軌跡范例

9d3b956a-5bf0-11ed-a3b6-dac502259ad0.jpg

圖6 S3E數(shù)據(jù)集的室外軌跡,Alpha、Bob和Carol在室外環(huán)境中的軌跡用橙色、紫色和青色標注。 S3E數(shù)據(jù)集的室外和室內(nèi)分布情況如表2所示,與其他主流SLAM數(shù)據(jù)集的對比如表3所示。S3E數(shù)據(jù)集的平均時間為459.1s,這對解決C-SLAM的長期評估問題具有較大幫助。值得注意的是,對于每個設(shè)計的軌跡,該數(shù)據(jù)集至少包含一個序列。此外,Dormitory為第三類和第四類的混合軌跡,Laboratory_1為第二類和第四類的混合軌跡。 表2 S3E數(shù)據(jù)集分析

9d6e1ae4-5bf0-11ed-a3b6-dac502259ad0.png

表3 與一些流行的SLAM數(shù)據(jù)集的對比

9da1b688-5bf0-11ed-a3b6-dac502259ad0.png

4. 實驗

4.1 基線

如表4所示,作者在S3E數(shù)據(jù)集上提供了四個單機器人SLAM和三個C-SLAM基線,評價指標為ATE,均是目前的主流SLAM算法。其中前者包括ORB-SLAM3、VINS-Fusion、LIO-SAM以及LVI-SAM。后者包括COVINS、DiSCo-SLAM以及DCL-SLAM。 作者采用了三種方法來生成軌跡真值:在GNSS可用區(qū)域,由雙天線RTK設(shè)備記錄的厘米級定位真值。對于無GNSS的場景,用RTK設(shè)備記錄建筑物外軌道的起點和終點。并利用運動捕捉設(shè)備來記錄室內(nèi)情況下的起點和終點。 表4 室外環(huán)境下單SLAM和C-SLAM的基準ATE。α、β和γ分別代表ALPHA、BOB和CAROL

9dccb8c4-5bf0-11ed-a3b6-dac502259ad0.png

4.2 結(jié)果對比

對于單機器人SLAM,基于激光雷達的方法通常優(yōu)于基于視覺的方法。在S3E中,大多數(shù)基于視覺的方法在轉(zhuǎn)彎時無法跟蹤幀,因此,基于LiDAR的C-SLAM超過了基于視覺的C-SLAM。同時,C-SLAM在成功檢測到回環(huán)時,可以狀態(tài)估計的魯棒性和準確性。例如DCL-SLAM相比其前端LIO-SAM,平均ATE降低了0.42。在Playground_1序列中,部署單LIO-SAM時,同心圓Alpha和Bob均無法跟蹤幀,單通過DCL-SLAM可以成功跟蹤,并且精度實現(xiàn)了大幅提升。在Square_1中,COVINS以7.09的ATE超過了單SLAM,Carol在ORB-SLAM3失敗時通過協(xié)作實現(xiàn)了1.75 ATE。 如圖7所示,紅色圓圈表示C-SLAM成功檢測到回環(huán)。在左側(cè),DiSCo-SLAM和DCL-SLAM在簡單的情況下取得成功,因為不同觀測之間的大量重疊保證了后端優(yōu)化的冗余特性。與DCL-SLAM相比,COVINS在兩個機器人同向移動的端點處成功檢測到不同機器人之間的回環(huán),但在兩個機器人相對移動的中點處未能匹配到Bob和Carol之間的特征。這也是DCL-SLAM優(yōu)于COVINS的原因之一。結(jié)果表明,先進的C-SLAM系統(tǒng)可以在具有相當大重疊度的軌跡間表現(xiàn)良好。

9e90a446-5bf0-11ed-a3b6-dac502259ad0.png

圖7 C-SLAM的定性結(jié)果

5. 結(jié)論

近期,中山大學開發(fā)了一種由三個無人車記錄的大規(guī)模C-SLAM數(shù)據(jù)集,它包含激光雷達-視覺-IMU數(shù)據(jù)。S3E數(shù)據(jù)集包含7個室外場景和5個室內(nèi)場景,并進行了時間同步和傳感器校準。此外,S3E數(shù)據(jù)集中包含了多個回環(huán)檢測,并評估了當前最先進的C-SLAM及其單機器人前端比較器的性能。多機協(xié)同是機器人領(lǐng)域的一個重要發(fā)展趨勢,而目前多機數(shù)據(jù)集還較少,S3E很大程度上填補了這方面的空白。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28745

    瀏覽量

    208870
  • 計時器
    +關(guān)注

    關(guān)注

    1

    文章

    426

    瀏覽量

    32898
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1210

    瀏覽量

    24861

原文標題:S3E:用于協(xié)作SLAM的大規(guī)模多模態(tài)數(shù)據(jù)集

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    體驗MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    商湯日日新模態(tài)大模型權(quán)威評測第一

    剛剛,商湯科技日日新SenseNova模態(tài)大模型,在權(quán)威綜合評測權(quán)威平臺OpenCompass的模態(tài)評測中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?390次閱讀

    用于SLAM中點云地圖綜合評估的開源框架

    SLAM中評估大規(guī)模的點云地圖仍頗具挑戰(zhàn),主要原因在于缺乏統(tǒng)一、穩(wěn)健且高效的評估框架。本文提出了MapEval,這是一個用于點云地圖綜合評估的開源框架。在模擬數(shù)據(jù)
    的頭像 發(fā)表于 12-13 11:18 ?371次閱讀
    <b class='flag-5'>用于</b><b class='flag-5'>SLAM</b>中點云地圖綜合評估的開源框架

    芯訊通NB-IoT模組E7025 R3實現(xiàn)大規(guī)模部署

    作為全球知名物聯(lián)網(wǎng)通信模組提供商,芯訊通擁有全制式、全品類模組產(chǎn)品線,所打造的產(chǎn)品已遍布全球五大洲,為各產(chǎn)業(yè)合作伙伴的終端通信連接提供助力。芯訊通推出的NB-IoT模組E7025 R3,憑借其強大
    的頭像 發(fā)表于 12-09 16:56 ?613次閱讀

    利用VLM和MLLMs實現(xiàn)SLAM語義增強

    SLAM Using Foundation Models ? 作者: Jungseok Hong, Ran Choi, John J. Leonard ? 論文鏈接: https://arxiv.org/abs/2411.06752 ? 編譯: INDEMIND ? 數(shù)據(jù)
    的頭像 發(fā)表于 12-05 10:00 ?319次閱讀
    利用VLM和MLLMs實現(xiàn)<b class='flag-5'>SLAM</b>語義增強

    一文理解模態(tài)大語言模型——下

    /understanding-multimodal-llms ? 《一文理解模態(tài)大語言模型 - 上》介紹了什么是模態(tài)大語言模型,以及構(gòu)建
    的頭像 發(fā)表于 12-03 15:18 ?235次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語言模型——下

    激光雷達在SLAM算法中的應用綜述

    SLAM算法運行的重要傳感器。基于激光雷達的SLAM算法,對激光雷達SLAM總體框架進行介紹,詳細闡述前端里程計、后端優(yōu)化、回環(huán)檢測、地圖構(gòu)建模塊的作用并總結(jié)所使用的算法;按由2D到 3
    的頭像 發(fā)表于 11-12 10:30 ?1150次閱讀
    激光雷達在<b class='flag-5'>SLAM</b>算法中的應用綜述

    超聲界“內(nèi)卷終結(jié)者”!ZRT智銳通提供全新引擎打造模態(tài)影像融合系統(tǒng)

    模態(tài)影像融合超聲系統(tǒng)的市場規(guī)模也在不斷擴大,國內(nèi)眾多超聲系統(tǒng)廠家也在不斷尋找合適的硬件平臺,用以承載旗下的模態(tài)影像融合超聲系統(tǒng)。
    的頭像 發(fā)表于 11-11 10:52 ?747次閱讀
    超聲界“內(nèi)卷終結(jié)者”!ZRT智銳通提供全新引擎打造<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>影像融合系統(tǒng)

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)大模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態(tài)之間的關(guān)聯(lián),實現(xiàn)更加智能化的信息處理。簡單來說,
    的頭像 發(fā)表于 10-18 09:39 ?607次閱讀

    蘋果發(fā)布300億參數(shù)模態(tài)AI大模型MM1.5

    蘋果近日推出了全新的模態(tài)AI大模型MM1.5,該模型擁有高達300億的參數(shù)規(guī)模,是在前代MM1架構(gòu)的基礎(chǔ)上進一步發(fā)展而來的。
    的頭像 發(fā)表于 10-14 15:50 ?340次閱讀

    云知聲山海模態(tài)大模型UniGPT-mMed登頂MMMU測評榜首

    近日,模態(tài)人工智能模型基準評測MMMU更新榜單,云知聲山海模態(tài)大模型UniGPT-mMed以通用能力、醫(yī)療專業(yè)能力雙雙排名第一的優(yōu)異成
    的頭像 發(fā)表于 10-12 14:09 ?355次閱讀
    云知聲山海<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型UniGPT-mMed登頂MMMU測評榜首

    云知聲推出山海模態(tài)大模型

    在人工智能技術(shù)的浩瀚星海中,模態(tài)交互技術(shù)正成為引領(lǐng)未來的新航標。繼OpenAI的GPT-4o掀起滔天巨浪后,云知聲以創(chuàng)新之姿,推出了其匠心獨運的山海模態(tài)大模型,正式宣告“Her時代
    的頭像 發(fā)表于 08-27 15:20 ?448次閱讀

    3V至5.5V通道RS-232 1-Bit/s線路驅(qū)動器/接收器MAX3237E數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《3V至5.5V通道RS-232 1-Bit/s線路驅(qū)動器/接收器MAX3237E數(shù)據(jù)表.pdf》資料免費下載
    發(fā)表于 06-25 10:31 ?0次下載
    <b class='flag-5'>3</b>V至5.5V<b class='flag-5'>多</b>通道RS-232 1-Bit/<b class='flag-5'>s</b>線路驅(qū)動器/接收器MAX3237<b class='flag-5'>E</b><b class='flag-5'>數(shù)據(jù)</b>表

    螞蟻集團推出20億參數(shù)模態(tài)遙感基礎(chǔ)模型SkySense

    近日,螞蟻集團聯(lián)合武漢大學宣布成功研發(fā)出20億參數(shù)模態(tài)遙感基礎(chǔ)模型SkySense。這一創(chuàng)新模型由螞蟻集團的AI創(chuàng)新研發(fā)部門NextEvo與武漢大學共同完成,是迄今為止國際上參數(shù)規(guī)模最大、覆蓋任務(wù)最全、識別精度最高的
    的頭像 發(fā)表于 03-04 11:22 ?907次閱讀

    螞蟻推出20億參數(shù)模態(tài)遙感模型SkySense

    據(jù)了解,負責開發(fā)的百靈團隊利用自身擁有的19億遙感影像數(shù)據(jù)進行了預訓練,從而生成了具有20.6億參數(shù)的SkySense大模型。官方稱其為全球范圍內(nèi)參數(shù)規(guī)模最大、任務(wù)覆蓋最全且識別精度最高的
    的頭像 發(fā)表于 02-28 15:53 ?760次閱讀
    主站蜘蛛池模板: 亚洲一区二区三区在线视频 | aa在线播放 | 加勒比黑人喝羽月希奶水 | 美女黄频| 午夜影院18 | 激情五月激情综合网 | 三级理论在线观看 | 逼逼视频网站 | 在线高清国产 | 中国一级特黄真人毛片免费看 | 成 人在线观看视频网站 | 亚洲一二三四区 | 激情六月天婷婷 | 色综合综合网 | 国产成人精品怡红院 | 免费播放特黄特色毛片 | 天堂资源中文在线 | 在线免费黄色网址 | 三级视频中文字幕 | 国产成人影视 | 天堂网www中文天堂在线 | 国产chinesehd精品酒店 | 国产色妞妞在线视频免费播放 | 国产区亚洲区 | 色花堂国产精品首页第一页 | 日本黄色大片免费观看 | 日本在线观看一区 | 日韩va亚洲va欧美va浪潮 | 国产成+人+综合+亚洲欧美丁香花 | 黄色在线网站 | 天天操夜夜嗨 | 亚洲视频免费一区 | 色色色色网站 | 国产精品乱码高清在线观看 | 国产美女特级嫩嫩嫩bbb | 亚洲国产精品久久久久婷婷老年 | 免费视频你懂得 | 午夜网站免费 | 亚洲精品久 | 天天躁狠狠躁狠狠躁夜夜躁 | 精品一区二区三区三区 |