在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于多模態語義SLAM框架

lhl545545 ? 來源:3D視覺工坊 ? 作者:3D視覺工坊 ? 2022-08-31 09:39 ? 次閱讀

摘要

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 大家好,今天為大家帶來的文章是?Multi-modal Semantic SLAM for Complex Dynamic Environments 同時定位和建圖(SLAM)是許多現實世界機器人應用中最重要的技術之一。靜態環境的假設在大多數 SLAM 算法中很常見,但是對于大多數應用程序來說并非如此。最近關于語義 SLAM 的工作旨在通過執行基于圖像的分割來理解環境中的對象并從場景上下文中區分動態信息。然而,分割結果往往不完善或不完整,這會降低映射的質量和定位的準確性。在本文中,我們提出了一個強大的多模態語義框架來解決復雜和高度動態環境中的 SLAM 問題。我們建議學習更強大的對象特征表示,并將三思而后行的機制部署到主干網絡,從而為我們的基線實例分割模型帶來更好的識別結果。此外,將純幾何聚類和視覺語義信息相結合,以減少由于小尺度物體、遮擋和運動模糊造成的分割誤差的影響。已經進行了徹底的實驗來評估所提出方法的性能。結果表明,我們的方法可以在識別缺陷和運動模糊下精確識別動態對象。此外,所提出的 SLAM 框架能夠以超過 10 Hz 的處理速率有效地構建靜態密集地圖,這可以在許多實際應用中實現。訓練數據和建議的方法都是開源的。?

主要工作與貢獻

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 1. 本文提出了一個魯棒且快速的多模態語義 SLAM 框架,旨在解決復雜和動態環境中的 SLAM 問題。具體來說,將僅幾何聚類和視覺語義信息相結合,以減少由于小尺度對象、遮擋和運動模糊導致的分割誤差的影響。 2. 本文提出學習更強大的對象特征表示,并將三思機制部署到主干網絡,從而為基線實例分割模型帶來更好的識別結果。 3. 對所提出的方法進行了全面的評估。結果表明,本文的方法能夠提供可靠的定位和語義密集的地圖

算法流程

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 499cabc0-28b9-11ed-ba43-dac502259ad0.png 圖 2 是框架的概述。它主要由四個模塊組成,分別是實例分割模塊、多模態融合模塊、定位模塊和全局優化與映射模塊。 1.實例分割和語義學習 使用2D實例分割網絡,一張圖像的實例分割結果: 49b12a50-28b9-11ed-ba43-dac502259ad0.png C代表類別,M是物體的掩碼信息,n代表當前圖像中存在物體數量。 圖像在空間上被分成 N × N 個網格單元。如果一個對象的中心落入一個網格單元,該網格單元負責分別預測類別分支Bc和掩碼分支P m 中對象的語義類別Cij和語義掩碼Mij: 49bfaaee-28b9-11ed-ba43-dac502259ad0.png λ 是類的數量。φ 是網格單元的總數。 為了滿足實時性的要求:采用SOLOv2 的輕量級版本,但精度較低,可實現實時實例分割。 為了提高分割精度:實施了多種方法來在骨干網絡中構建更有效和更健壯的特征表示鑒別器。 輸出是每個動態對象的像素級實例掩碼,以及它們對應的邊界框和類類型。為了更好地將動態信息集成到 SLAM 算法中,輸出二進制掩碼被轉換為包含場景中所有像素級實例掩碼的單個圖像。蒙版落在其上的像素被認為是“動態狀態”,否則被認為是“靜態”。然后將二進制掩碼應用于語義融合模塊以生成 3D 動態掩碼。 2.多模態融合 1.移動模糊補償: 目前實例分割的性能已經是不錯的,但是移動的物體會出現物體識別不完整 導致物體的邊界不明確 最終影響定位精度。因此,本文首先實現形態膨脹,將 2D 像素級掩模圖像與結構元素進行卷積,以逐漸擴展動態對象的區域邊界。形態膨脹結果標志著動態對象周圍的模糊邊界。我們將動態對象及其邊界作為動態信息,將在多模態融合部分進一步細化。 2.幾何聚類和語義融合: 通過歐幾里得空間的連通性分析進行補償也在本文的工作中實現。實例分割網絡在大多數實際情況下都具有出色的識別能力,但是由于區域之間的模糊像素,運動模糊限制了分割性能,導致了不希望的分割錯誤。因此,將點云聚類結果和分割結果結合起來,以更好地細化動態對象。特別是,對幾何信息進行連通性分析,并與基于視覺的分割結果合并。 為了提高工作效率,首先將 3D 點云縮小以減少數據規模,并將其用作點云聚類的輸入。然后將實例分割結果投影到點云坐標上,對每個點進行標注。當大多數點(90%)是動態標記點時,點云簇將被視為動態簇。當靜態點靠近動態點簇時,它會被重新標記為動態標簽。并且當附近沒有動態點聚類時,動態點將被重新標記。 3.定位與位姿估計 1.特征提取: 多模態動態分割后,點云分為動態點云PD和靜態點云PS。基于原先之前的工作,靜態點云隨后用于定位和建圖模塊。與現有的 SLAM 方法(如 LOAM )相比,原先之前的工作中提出的框架能夠支持 30 Hz 的實時性能,速度要快幾倍。與 ORB-SLAM2和 VINS-MONO 等視覺 SLAM 相比,它還可以抵抗光照變化。對于每個靜態點 pk ∈ PS ,可以在歐幾里得空間中通過半徑搜索來搜索其附近的靜態點集 Sk。讓 |S|是集合 S 的基數,因此局部平滑度定義為: 49d33d52-28b9-11ed-ba43-dac502259ad0.png 邊緣特征由 σk 大的點定義,平面特征由 σk 小的點定義。 2.數據關聯: 通過最小化點到邊緣和點到平面的距離來計算最終的機器人位姿。對于邊緣特征點 pE ∈ PE ,可以通過 p^E = T·pE 將其轉換為局部地圖坐標,其中 T ∈ SE(3) 是當前位姿。從局部邊緣特征圖中搜索 2 個最近的邊緣特征 p 1 E 和 p 2 E,點到邊緣殘差定義: 49e770b0-28b9-11ed-ba43-dac502259ad0.png 類似地,給定一個平面特征點 pL ∈ PL 及其變換點 p^L = T·pL,我們可以從局部平面圖中搜索 3 個最近點 。點到平面殘差定義為: 4a078d28-28b9-11ed-ba43-dac502259ad0.png3.位姿估計: 通過最小化點到平面和點到邊緣殘差的總和來計算最終的機器人位姿: 4a2eef30-28b9-11ed-ba43-dac502259ad0.png4.特征地圖更新和關鍵幀選擇: 一旦位姿優化解決,特征點將被更新到局部地圖和平面地圖當中。這些點將被用于一下幀的數據關聯。當平移或者旋轉的值大于閾值時候,該幀將被選作關鍵幀。 4.全局地圖構建 全局語義地圖由靜態地圖和動態地圖構成。視覺信息用于構建測色密集靜態地圖。視覺信息能夠反投影3D點到圖像平面。為防止內存溢出的問題采用3d is here: Point cloud library (pcl)。

實驗結果

4963fc12-28b9-11ed-ba43-dac502259ad0.png ? 1.數據獲取 4a60bc7c-28b9-11ed-ba43-dac502259ad0.png 在自動駕駛、智能倉儲物流等諸多場景中,人往往被視為動態對象。因此,本文從 COCO 數據集中選擇了 5,000 張人體圖像。在實驗中,所提出的方法在倉庫環境中進行評估,如圖 4 所示。除了將人視為動態對象之外,先進的工廠還需要人與機器人和機器人與機器人之間的協作,因此自動導引車 ( AGV)也是潛在的動態對象。因此,總共收集了 3,000 張 AGV 圖像來訓練實例分割網絡,其中一些 AGV 如圖 4 所示。 2.評估實例分割性能 評估 COCO 數據集上關于分割損失和平均精度(mAP)的分割性能。該評估的目的是將我們采用的實例分割網絡 SOLOv2 與所提出的方法進行比較。結果如表I所示。 4a9239b4-28b9-11ed-ba43-dac502259ad0.png 分割結果在圖 3 中進一步可視化: 4aa6706e-28b9-11ed-ba43-dac502259ad0.png3. 稠密建圖和動態跟蹤 建圖如 圖5所示,能夠識別潛在移動的物體并且從靜態地圖中將其分離開來。 4abe60de-28b9-11ed-ba43-dac502259ad0.png 定位結果 如圖6所示: 4ae70836-28b9-11ed-ba43-dac502259ad0.png 4.定位漂移的消融實驗 4b0780fc-28b9-11ed-ba43-dac502259ad0.png

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2911

    瀏覽量

    108008
  • 應用程序
    +關注

    關注

    38

    文章

    3292

    瀏覽量

    57917
  • SLAM算法
    +關注

    關注

    0

    文章

    11

    瀏覽量

    2553

原文標題:復雜動態環境的多模態語義 SLAM(arxiv 2022)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    體驗MiniCPM-V 2.6 模態能力

    模態組網
    jf_23871869
    發布于 :2025年01月20日 13:40:48

    采用ANSYS的三浮陀螺儀框架模態分析

    本帖最后由 richthoffen 于 2020-5-14 09:35 編輯 采用ANSYS的三浮陀螺儀框架模態分析
    發表于 05-14 09:31

    HOOFR-SLAM的系統框架及其特征提取

    Intelligent Vehicles Applications1. 介紹2. HOOFR-SLAM2.1 系統框架2.2 HOOFR特征提取2.3 映射線程2.3.1 特征匹配1. 介紹提出一種HOOFR-...
    發表于 12-21 06:35

    lABCIWQmultyWindows模態窗口2010

    lABCIWQmultyWindows模態窗口2010。
    發表于 05-17 17:47 ?0次下載

    模態生物特征識別系統框架

    針對模態生物特征識別系統并行融合模式中使用方便性和使用效率方面的問題,在現有序列化模態生物特征識別系統的基礎上,提出了一種結合并行融合和序列化融合的
    發表于 01-02 18:47 ?0次下載
    <b class='flag-5'>多</b><b class='flag-5'>模態</b>生物特征識別系統<b class='flag-5'>框架</b>

    高仙SLAM具體的技術是什么?SLAM2.0有哪些優勢?

    高仙的SLAM2.0技術體系核心,是基于傳感器融合+深度學習的架構,即語義SLAM。高仙SLAM2.0技術方案以
    的頭像 發表于 05-15 16:48 ?9088次閱讀

    基于語義耦合相關的判別式跨模態哈希特征表示學習算法

    基于哈希的跨模態檢索以其存儲消耗低、査詢速度快等優點受到廣泛的關注。跨模態哈希學習的核心問題是如何對不同模態數據進行有效地共享語義空間嵌入學習。大多數算法在對
    發表于 03-31 11:28 ?12次下載
    基于<b class='flag-5'>語義</b>耦合相關的判別式跨<b class='flag-5'>模態</b>哈希特征表示學習算法

    基于語義耦合相關的判別式跨模態哈希學習算法

    基于語義耦合相關的判別式跨模態哈希學習算法
    發表于 06-07 16:36 ?7次下載

    自動駕駛深度模態目標檢測和語義分割:數據集、方法和挑戰

    了許多解決深度模態感知問題的方法。 然而,對于網絡架構的設計,并沒有通用的指導方針,關于“融合什么”、“何時融合”和“如何融合”的問題仍然沒有定論。本文系統地總結了自動駕駛 中深度模態
    發表于 06-06 10:37 ?0次下載
    自動駕駛深度<b class='flag-5'>多</b><b class='flag-5'>模態</b>目標檢測和<b class='flag-5'>語義</b>分割:數據集、方法和挑戰

    TRO新文:用于數據關聯、建圖和高級任務的對象級SLAM框架

    總的來說,框架實現穩健的數據關聯、精確的物體參數化以及基于語義對象地圖的高層應用,解決了對象SLAM涉及的主要挑戰。語義對象地圖能為機器人抓取、導航、規劃等復雜任務提供必要信息,有助于
    的頭像 發表于 07-14 16:49 ?778次閱讀
    TRO新文:用于數據關聯、建圖和高級任務的對象級<b class='flag-5'>SLAM</b><b class='flag-5'>框架</b>

    中科大&amp;字節提出UniDoc:統一的面向文字場景的模態大模型

    如上圖所示,UniDoc基于預訓練的視覺大模型及大語言模型,將文字的檢測、識別、spotting(圖中未畫出)、模態理解等四個任務,通過多模態指令微調的方式,統一到一個框架中。具體地
    的頭像 發表于 08-31 15:29 ?1628次閱讀
    中科大&amp;字節提出UniDoc:統一的面向文字場景的<b class='flag-5'>多</b><b class='flag-5'>模態</b>大模型

    DreamLLM:多功能模態大型語言模型,你的DreamLLM~

    由于固有的模態缺口,如CLIP語義主要關注模態共享信息,往往忽略了可以增強多模態理解的模態特定知識。因此,這些研究并沒有充分認識到
    的頭像 發表于 09-25 17:26 ?816次閱讀
    DreamLLM:多功能<b class='flag-5'>多</b><b class='flag-5'>模態</b>大型語言模型,你的DreamLLM~

    用語言對齊模態信息,北大騰訊等提出LanguageBind,刷新多個榜單

    目前的 VL 預訓練方法通常僅適用于視覺和語言模態,而現實世界中的應用場景往往包含更多的模態信息,如深度圖、熱圖像等。如何整合和分析不同模態的信息,并且能夠在多個模態之間建立準確的
    的頭像 發表于 11-23 15:46 ?767次閱讀
    用語言對齊<b class='flag-5'>多</b><b class='flag-5'>模態</b>信息,北大騰訊等提出LanguageBind,刷新多個榜單

    OneLLM:對齊所有模態框架

    OneLLM 是第一個在單個模型中集成八種不同模態的MLLM。通過統一的框架和漸進式模態對齊pipelines,可以很容易地擴展OneLLM以包含更多數據模式。
    的頭像 發表于 01-04 11:27 ?1062次閱讀
    OneLLM:對齊所有<b class='flag-5'>模態</b>的<b class='flag-5'>框架</b>!

    利用VLM和MLLMs實現SLAM語義增強

    (VLM)和模態大語言模型(MLLMs)來強化此類環境中的對象級語義映射。 ? 文章: Learning from Feedback: Semantic Enhancement for Object
    的頭像 發表于 12-05 10:00 ?276次閱讀
    利用VLM和MLLMs實現<b class='flag-5'>SLAM</b><b class='flag-5'>語義</b>增強
    主站蜘蛛池模板: 国产福利精品视频 | 中文字幕在线乱码免费毛片 | 亚洲都市激情 | 91免费视频网 | 日韩aa| 欧美一级片免费观看 | 天堂在线网 | 色播亚洲 | 久久男女 | 国产在线观看黄 | 亚洲精品国产成人 | 中文天堂最新版www 中文天堂最新版在线精品 中文天堂最新版在线中文 中文天堂最新版资源新版天堂资源 | 亚洲午夜久久久久影院 | 国产精品女人在线观看 | 99热免费| 高清国产亚洲va精品 | 天天干天天摸天天操 | 红怡院欧洲 | 欧美日剧在线免费 | 5151hh四虎国产精品 | 天天色成人| 主人扒开腿揉捏花蒂调教cfh | 特黄黄三级视频在线观看 | 日日夜夜天天干 | 岬奈奈美在线 国产一区 | аⅴ资源天堂8在线 | 色婷婷免费视频 | 国产精品午夜在线观看 | 夜夜摸夜夜操 | 一级毛片日韩 | 婷婷激情五月 | 在线免费午夜视频 | 天天干天天插天天射 | 狠狠曹| 丁香在线 | brazzers在线播放 | 欧美视频一区二区三区四区 | 国产精品毛片久久久久久久 | 午夜伦理在线观看 | 久久视频免费看 | 午夜在线免费观看视频 |