在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)提出了同時(shí)對未知物體進(jìn)行6D追蹤和3D重建的方法

3D視覺工坊 ? 來源:機(jī)器之心 ? 2023-07-03 10:49 ? 次閱讀

如今,計(jì)算機(jī)視覺社區(qū)已經(jīng)廣泛展開了對物體姿態(tài)的 6D 追蹤和 3D 重建。本文中英偉達(dá)提出了同時(shí)對未知物體進(jìn)行 6D 追蹤和 3D 重建的方法。該方法假設(shè)物體是剛體,并且需要視頻的第一幀中的 2D 物體掩碼。

除了這兩個(gè)要求之外,物體可以在整個(gè)視頻中自由移動(dòng),甚至經(jīng)歷嚴(yán)重的遮擋。英偉達(dá)的方法在目標(biāo)上與物體級 SLAM 的先前工作類似,但放松了許多常見的假設(shè),從而能夠處理遮擋、反射、缺乏視覺紋理和幾何線索以及突然的物體運(yùn)動(dòng)。

英偉達(dá)方法的關(guān)鍵在于在線姿態(tài)圖優(yōu)化過程,同時(shí)進(jìn)行神經(jīng)重建過程和一個(gè)內(nèi)存池以促進(jìn)兩個(gè)過程之間的通信。相關(guān)論文已被 CVPR 2023 會(huì)議接收。

38be4d44-192d-11ee-962d-dac502259ad0.png

  • 論文地址:https://arxiv.org/abs/2303.14158

  • 項(xiàng)目主頁:https://bundlesdf.github.io/

  • 項(xiàng)目代碼:https://github.com/NVlabs/BundleSDF

本文的貢獻(xiàn)可以總結(jié)如下:

  • 一種用于新穎未知?jiǎng)討B(tài)物體的因果 6 自由度姿態(tài)跟蹤和 3D 重建的新方法。該方法利用了并發(fā)跟蹤和神經(jīng)重建過程的新穎共同設(shè)計(jì),能夠在幾乎實(shí)時(shí)的在線環(huán)境中運(yùn)行,同時(shí)大大減少了跟蹤漂移。

  • 引入了混合 SDF 表示來處理動(dòng)態(tài)物體為中心的環(huán)境中由于噪聲分割和交互引起的不確定自由空間的挑戰(zhàn)。

  • 在三個(gè)公共基準(zhǔn)測試中進(jìn)行的實(shí)驗(yàn)顯示了本文方法與主流方法的最先進(jìn)性能。

英偉達(dá)方法的魯棒性在下圖 1 中得到了突出顯示。

38e706d0-192d-11ee-962d-dac502259ad0.gif

下面是一些 Demo 展示:

3956874e-192d-11ee-962d-dac502259ad0.gif

396731ca-192d-11ee-962d-dac502259ad0.gif

與相關(guān)工作的對比

此前的 6D 物體姿態(tài)估計(jì)旨在推斷出目標(biāo)物體在相機(jī)幀中的三維平移和三維旋轉(zhuǎn)。最先進(jìn)的方法通常需要實(shí)例或類別級別的物體 CAD 模型進(jìn)行離線訓(xùn)練或在線模板匹配,這限制了它們在新穎未知物體上的應(yīng)用。盡管最近有幾項(xiàng)研究工作放寬了假設(shè)并旨在快速推廣到新穎未見的物體,但它們?nèi)匀恍枰A(yù)先捕獲測試物體的姿態(tài)參考視圖,而英偉達(dá)的設(shè)定中并不假設(shè)這一點(diǎn)。

除了單幀姿態(tài)估計(jì)之外,6D 物體姿態(tài)跟蹤利用時(shí)間信息在整個(gè)視頻中估計(jì)每幀物體姿態(tài)。與單幀姿態(tài)估計(jì)方法類似,這些方法在不同的假設(shè)條件上進(jìn)行,例如訓(xùn)練和測試使用相同的物體,或者在相同類別的物體上進(jìn)行預(yù)訓(xùn)練。

然而,與所有以往工作不同的是,英偉達(dá)的追蹤和重建協(xié)同設(shè)計(jì)采用了一種新穎的神經(jīng)表示,不僅在實(shí)驗(yàn)證實(shí)中實(shí)現(xiàn)了更強(qiáng)大的跟蹤能力,還能夠輸出額外的形狀信息。

此外,雖然 SLAM(同時(shí)定位與地圖構(gòu)建)方法解決的是與本研究類似的問題,但其專注于跟蹤相機(jī)相對于大型靜態(tài)環(huán)境的姿態(tài)。動(dòng)態(tài) SLAM 方法通常通過幀 - 模型迭代最近點(diǎn)(ICP)與顏色相結(jié)合、概率數(shù)據(jù)關(guān)聯(lián)或三維水平集似然最大化來跟蹤動(dòng)態(tài)物體。模型通過將觀察到的 RGBD 數(shù)據(jù)與新跟蹤的姿態(tài)聚合實(shí)時(shí)重建。

相比之下,英偉達(dá)的方法利用一種新穎的神經(jīng)對象場表示,允許自動(dòng)融合,同時(shí)動(dòng)態(tài)矯正歷史跟蹤的姿態(tài)以保持多視角一致性。英偉達(dá)專注于物體為中心的場景,包括動(dòng)態(tài)情景,其中常常缺乏紋理或幾何線索,并且交互主體經(jīng)常引入嚴(yán)重遮擋,這些是在傳統(tǒng) SLAM 中很少發(fā)生的困難。與物體級 SLAM 研究中研究的靜態(tài)場景相比,動(dòng)態(tài)交互還允許觀察物體的不同面以進(jìn)行更完整的三維重建。

方法概覽

英偉達(dá)方法的概述如下圖所示。給定單目 RGBD 輸入視頻以及僅在第一幀中感興趣物體的分割掩碼,該方法通過后續(xù)幀跟蹤物體的 6D 姿態(tài)并重建物體的紋理 3D 模型。所有處理都是因果的(無法訪問未來幀的信息)。英偉達(dá)假設(shè)物體是剛體,但適用于無紋理的物體。

此外不需要物體的實(shí)例級 CAD 模型,也不需要物體的類別級先驗(yàn)知識(shí)(例如事先在相同的物體類別上訓(xùn)練)。

3998fe76-192d-11ee-962d-dac502259ad0.png

整個(gè)框架的流程可以概括為:首先在連續(xù)的分割圖像之間匹配特征,以獲得粗略的姿態(tài)估計(jì)(第 3.1 節(jié))。其中一些具有姿態(tài)的幀被存儲(chǔ)在內(nèi)存池中,以便稍后使用和優(yōu)化(第 3.2 節(jié))。從內(nèi)存池的子集動(dòng)態(tài)創(chuàng)建姿態(tài)圖(第 3.3 節(jié));在線優(yōu)化與當(dāng)前姿態(tài)一起優(yōu)化圖中的所有姿態(tài)。

然后,這些更新的姿態(tài)被存儲(chǔ)回內(nèi)存池中。最后,內(nèi)存池中的所有具有姿態(tài)的幀用于學(xué)習(xí)基于 SDF 表示的神經(jīng)物體場(在單獨(dú)并行的線程中),該對象場建模物體的幾何和視覺紋理(第 3.4 節(jié)),同時(shí)調(diào)整它們先前估計(jì)的姿態(tài),以魯棒化 6D 物體姿態(tài)跟蹤。

在這項(xiàng)工作中,一個(gè)獨(dú)特的挑戰(zhàn)在于交互者引入的嚴(yán)重遮擋,導(dǎo)致了多視幾何不再一致。并且完美的物體分割掩碼通常無法得到。為此,英偉達(dá)進(jìn)行了獨(dú)特的建模以增加魯棒性。

下面左圖:使用視頻分割網(wǎng)絡(luò)(第 3.1 節(jié))預(yù)測的二值掩碼進(jìn)行高效的射線追蹤的 Octree 體素表示,該物體分割掩碼由于來自神經(jīng)網(wǎng)絡(luò)的預(yù)測難免存在錯(cuò)誤。射線可以落在掩碼內(nèi)部(顯示為紅色)或外部(黃色)。右圖:神經(jīng)體積的 2D 俯視示意圖,以及沿著射線進(jìn)行的混合 SDF 建模的點(diǎn)采樣。藍(lán)色樣本接近表面。

39a43f8e-192d-11ee-962d-dac502259ad0.jpg

實(shí)驗(yàn)和結(jié)果

數(shù)據(jù)集:英偉達(dá)考慮了三個(gè)具有截然不同的交互形式和動(dòng)態(tài)場景的真實(shí)世界數(shù)據(jù)集。有關(guān)野外應(yīng)用和靜態(tài)場景的結(jié)果,請參閱項(xiàng)目頁面。

  • HO3D:該數(shù)據(jù)集包含了人手與 YCB 物體交互的 RGBD 視頻,由近距離捕捉的 Intel RealSense 相機(jī)進(jìn)行拍攝。

  • YCBInEOAT:該數(shù)據(jù)集包含了雙臂機(jī)器人操作 YCB 物體的第一視角的 RGBD 視頻,由中距離捕捉的 Azure Kinect 相機(jī)進(jìn)行拍攝。操作類型包括:(1)單臂拾取和放置,(2)手內(nèi)操作,以及(3)雙臂之間的拾取和交接。

  • BEHAVE:該數(shù)據(jù)集包含人體與物體交互的 RGBD 視頻,由 Azure Kinect 相機(jī)的預(yù)校準(zhǔn)多視圖系統(tǒng)遠(yuǎn)距離捕捉。然而,我們將評估限制在單視圖設(shè)置下,該設(shè)置經(jīng)常發(fā)生嚴(yán)重遮擋。

評估指標(biāo):英偉達(dá)分別評估姿態(tài)估計(jì)和形狀重建。對于 6D 物體姿態(tài),他們使用物體幾何來計(jì)算 ADD 和 ADD-S 指標(biāo)的曲線下面積(AUC)百分比。對于 3D 形狀重建,英偉達(dá)計(jì)算最終重建網(wǎng)格與地面真實(shí)網(wǎng)格之間在每個(gè)視頻的第一幀定義的規(guī)范坐標(biāo)系中的 Chamfer 距離。

對比方法:英偉達(dá)使用官方的開源實(shí)現(xiàn)和最佳調(diào)整參數(shù)與 DROID-SLAM (RGBD) [61]、NICE-SLAM [85]、KinectFusion [43]、BundleTrack [69] 和 SDF-2-SDF [53] 進(jìn)行比較。此外還包括它們在排行榜上的基準(zhǔn)結(jié)果。

39d6e894-192d-11ee-962d-dac502259ad0.png

39e12584-192d-11ee-962d-dac502259ad0.png

39eb9afa-192d-11ee-962d-dac502259ad0.png

3a04f23e-192d-11ee-962d-dac502259ad0.png

3a77bf62-192d-11ee-962d-dac502259ad0.png

團(tuán)隊(duì)介紹

該論文來自于英偉達(dá)研究院。其中論文一作是華人溫伯文,博士畢業(yè)于羅格斯大學(xué)計(jì)算機(jī)系。曾在谷歌 X,F(xiàn)acebook Reality Labs, 亞馬遜和商湯實(shí)習(xí)。研究方向?yàn)闄C(jī)器人感知和 3D 視覺。

3aeb8974-192d-11ee-962d-dac502259ad0.png

—END—


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2955

    瀏覽量

    110161
  • 通信
    +關(guān)注

    關(guān)注

    18

    文章

    6184

    瀏覽量

    137483
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3927

    瀏覽量

    93268

原文標(biāo)題:對未知物體進(jìn)行6D追蹤和3D重建,英偉達(dá)方法取得新SOTA,入選CVPR 2023

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于空間3D圓擬合圓孔參數(shù)測量

    【作者】:范梅花;【來源】:《黑龍江畜牧獸醫(yī)職業(yè)學(xué)院學(xué)報(bào)》2009年01期【摘要】:本文提出一種基于空間3D圓擬合圓孔參數(shù)的尺寸測量的方法,對原始圖像進(jìn)行邊緣保持濾波來減少噪聲,用邊緣
    發(fā)表于 04-24 09:25

    3D掃描的結(jié)構(gòu)光

    耐用性。由于尺寸、冷卻和電池要求,系統(tǒng)設(shè)計(jì)將光通量和能效視為重中之重。 目前有很多對3D結(jié)構(gòu)光圖形進(jìn)行優(yōu)化的技術(shù)。其中一個(gè)特別有效的方法就是自適應(yīng)圖形集。算法確定了圖形與波長的最佳組合,以提高被掃描
    發(fā)表于 08-30 14:51

    LIS2DE12TR如何在4D/6D模式下運(yùn)行

    值/事件? (c)INT2_CFG允許您啟用6D模式。在數(shù)據(jù)表的后面,描述了AOI-6D是從未知區(qū)域到已知區(qū)域的方向識(shí)別。但是如何定義“已知區(qū)域”的內(nèi)容也完全沒有了。那么,如何定義“已知區(qū)域”,以及
    發(fā)表于 02-12 12:13

    PYNQ框架下如何快速完成3D數(shù)據(jù)重建

    的。為了與下一節(jié)中實(shí)現(xiàn)的自定義方法進(jìn)行比較,使用Mesh Lab可視化三維點(diǎn)云。從下圖可以看出,渲染是準(zhǔn)確的。使用PYNQ板生成3D點(diǎn)云耗時(shí)42.973997秒。這說明視差圖和點(diǎn)云生成是三維模型實(shí)時(shí)生成
    發(fā)表于 01-07 17:25

    使用結(jié)構(gòu)光的3D掃描介紹

    隨著很多全新技術(shù)的涌現(xiàn),人們越來越需要用3D方法來表示現(xiàn)實(shí)世界中的物體。特別是機(jī)器視覺和機(jī)器人技術(shù),它們都得益于精確和自適應(yīng)的3D捕捉功能。其它針對
    發(fā)表于 11-16 07:48

    3D掃描到底是如何進(jìn)行的?

    包括物體表面的空間位置、質(zhì)地、反射率、透射率,還可能包括顏色。高品質(zhì)的掃描儀能快速提供多種物體的精確測量值,并且有著高分辨率及低創(chuàng)性;此類掃描儀易于使用,同時(shí)極具成本效益。DLP技術(shù)可用于實(shí)現(xiàn)高品質(zhì)掃描儀。 那么,
    發(fā)表于 11-17 06:02

    視覺處理,2d照片轉(zhuǎn)3d模型

    首先,太陽高度是恒定的。 照片每像素的亮度可求。我們只需要求出太陽與眼睛到物體的夾角就能求出3d模型。 最多就是各種物質(zhì)的反射率。 英偉達(dá)的oir芯片就是做汽車視覺的,大家去取取經(jīng)。
    發(fā)表于 05-21 17:13

    一種基于深度神經(jīng)網(wǎng)絡(luò)的迭代6D姿態(tài)匹配的新方法

    在本文工作中,作者提出了DeepIM——一種基于深度神經(jīng)網(wǎng)絡(luò)的迭代6D姿態(tài)匹配的新方法。給定測試圖像中目標(biāo)的初始6D姿態(tài)估計(jì),DeepIM能夠給出相對SE(
    的頭像 發(fā)表于 09-28 10:23 ?4090次閱讀

    英偉達(dá)再出新研究成果 可以渲染合成交互式3D環(huán)境的AI技術(shù)

    據(jù)透露,英偉達(dá)最新研發(fā)的這項(xiàng)成果,是可以渲染合成交互式3D環(huán)境的AI技術(shù)。在創(chuàng)建逼真的3D環(huán)境時(shí),英偉達(dá)
    發(fā)表于 12-12 09:22 ?1104次閱讀

    3D的感知技術(shù)及實(shí)踐

    測量表面法向量估計(jì) 幾何測量平面提取 3D重建從離散點(diǎn)云得到光滑曲面 3D重建ICP點(diǎn)云配準(zhǔn) 3D重建
    的頭像 發(fā)表于 10-23 09:40 ?3564次閱讀
    <b class='flag-5'>3D</b>的感知技術(shù)及實(shí)踐

    無需實(shí)例或類級別3D模型的對新穎物體6D姿態(tài)追蹤

    跟蹤RGBD視頻中物體6D姿態(tài)對機(jī)器人操作很重要。然而,大多數(shù)先前的工作通常假設(shè)目標(biāo)對象的CAD 模型,至少類別級別,可用于離線訓(xùn)練或在線測試階段模板匹配。
    的頭像 發(fā)表于 01-12 17:23 ?2145次閱讀

    英偉達(dá)方法入選CVPR 2023:對未知物體6D姿態(tài)追蹤和三維重建

    這種方法適用于任意剛性物體,即使視覺紋理大部分確實(shí),僅需在第一幀中分割出物體,不需要任何額外的信息,并且不對智能體與物體的交互模式做任何假設(shè)。
    的頭像 發(fā)表于 04-10 11:12 ?1065次閱讀

    基于未知物體進(jìn)行6D追蹤3D重建方法

    如今,計(jì)算機(jī)視覺社區(qū)已經(jīng)廣泛展開了對物體姿態(tài)的 6D 追蹤3D 重建。本文中英偉
    的頭像 發(fā)表于 07-03 11:24 ?862次閱讀
    基于<b class='flag-5'>未知</b><b class='flag-5'>物體</b><b class='flag-5'>進(jìn)行</b><b class='flag-5'>6D</b><b class='flag-5'>追蹤</b>和<b class='flag-5'>3D</b><b class='flag-5'>重建</b>的<b class='flag-5'>方法</b>

    基于3D形狀重建網(wǎng)絡(luò)的機(jī)器人抓取規(guī)劃方法

    一個(gè)帶有分割掩碼的輸入RGB-D圖像被提供給兩個(gè)神經(jīng)網(wǎng)絡(luò),分別產(chǎn)生一個(gè)6自由度的抓取姿勢和一個(gè)物體3D點(diǎn)云重建。通過將抓取姿勢投影到點(diǎn)云中
    發(fā)表于 11-02 10:39 ?653次閱讀
    基于<b class='flag-5'>3D</b>形狀<b class='flag-5'>重建</b>網(wǎng)絡(luò)的機(jī)器人抓取規(guī)劃<b class='flag-5'>方法</b>

    使用Python從2D圖像進(jìn)行3D重建過程詳解

    有許多不同的方法和算法可用于從2D圖像執(zhí)行3D重建。選擇的方法取決于諸如輸入圖像的質(zhì)量、攝像機(jī)校準(zhǔn)信息的可用性以及
    的頭像 發(fā)表于 12-05 14:07 ?4157次閱讀
    使用Python從2<b class='flag-5'>D</b>圖像<b class='flag-5'>進(jìn)行</b><b class='flag-5'>3D</b><b class='flag-5'>重建</b>過程詳解
    主站蜘蛛池模板: 亚洲天堂第一页 | 国产午夜精品久久久久免费视 | 欧美最猛性xxxx免费 | 午夜精品久久久久 | 午夜视 | 成人的天堂视频一区二区三区 | 免费一级大毛片a一观看不卡 | 五月六月婷婷 | 日本黄色爽 | 老子影院午夜精品欧美视频 | 日本免费a级片 | 夜夜穞狠狠穞 | 欧美日韩一卡2卡三卡4卡新区 | 天堂网www天堂在线资源链接 | 四虎免费在线播放 | 好吊色7777sao在线视频观看 | 日韩一区二区三区免费 | 国产高清免费在线 | 最新亚洲情黄在线网站 | 女人张腿让男桶免费视频观看 | 黑人xxxx精品 | 曰本三级香港三级人妇99视频 | 国产亚洲精品久久久久久牛牛 | 操女网站| 亚洲视频区 | 国产午夜精品久久久久免费视 | 一级美女视频 | 国产亚洲情侣久久精品 | 亚洲aⅴ久久久噜噜噜噜 | 亚洲视频国产 | 亚洲一二三区在线观看 | 久久精品操 | 久久婷婷一区二区三区 | 可以看黄色的网站 | 国产好深好硬好爽我还要视频 | 免费观看在线永久免费xx视频 | 97人人做人人爱 | 夜夜cao| 道区二区三区四区 | 久久精品国产精品亚洲毛片 | 天天视频国产精品 |