在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

場景流論文速記—RGBD圖像場景流

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-10 19:28 ? 次閱讀
簡單記一下最近看的六篇場景流論文~其中3篇是關(guān)于RGBD圖像的場景流,另外3篇是關(guān)于點云的場景流。
來源:https://zhuanlan.zhihu.com/p/85663856
作者:林小北

所謂場景流,就是光流的三維版本,表述了圖像/點云中每個點在前后兩幀的變化情況。目前對場景流的研究還局限在實驗室階段,由于缺乏實際數(shù)據(jù)(打標(biāo)成本太高)以及客觀的評價指標(biāo),離工程應(yīng)用還有不小的距離。此外,巨大的計算量也是一個瓶頸。以下論文可以在文末直接下載。

《Deep Rigid Instance Scene Flow》 CVPR 2019

輸入:雙目攝像頭的前后幀左右圖像

核心思想:把場景流分割成多個actor的運動,利用MaskRCNN進行Instance Segmentation,每個Instance的Motion都應(yīng)該與深度和光流一致。

首先,利用三個預(yù)先訓(xùn)練好的子網(wǎng)絡(luò)提取視覺線索:

a. 利用MaskRCNN進行Instance Segmentation
b. 利用PSM-Net計算深度圖(disparity map)
c. 利用PWC-Net計算光流

之后,采用高斯牛頓法最小化下面三個能量函數(shù)之和得到3D motion:

a. Photometric Error:前一幀左邊圖像的inlier像素點,與第二幀的投影位置的像素點必須盡量一致
b. Rigid Fitting:估計出的剛體運動必須與觀察到的深度和光流信息一致
c. Flow Consistency:估計出的剛體運動在2d上的投影必須和光流一致

《Learning Rigidity in Dynamic Scenes with a Moving Camera for 3D Motion Field Estimation》 ECCV 2018

輸入:前后幀圖像的RGBD信息

核心思想:把圖像分割為rigid/no-rigid區(qū)域,計算rigid區(qū)域的ego motion后再結(jié)合光流即可得到scene flow。

先利用兩個預(yù)先訓(xùn)練好的子網(wǎng)絡(luò)提取特征:

a. 利用PWCNet提取前后兩幀的光流
b. 利用 rigidity-transform network (RTN)預(yù)測ego-motion以及rigidity mask

之后,結(jié)合光流、rigidity mask對ego motioon進行refine,保證rigity里面的像素點的光流與ego-motion一致。

最后,綜合利用光流、rigidity mask、ego motioon信息即可得到scene flow。

備注:本文的另一個貢獻(xiàn)是提出了一個用于場景流的數(shù)據(jù)庫REFRESH。在kitti的inference結(jié)果如下,不是很好。

《Every Pixel Counts ++: Joint Learning of Geometry and Motion with 3D Holistic Understanding》TPAMI

輸入:單目/雙目攝像頭的前后幀圖像

核心思想:先用三個子網(wǎng)絡(luò)估計光流、深度、camera motion,送入holistic 3D motion parser (HMP) 按照幾何關(guān)系即可計算出rigid background的motion和moving objects的motion。

三個子網(wǎng)絡(luò)先分別進行預(yù)訓(xùn)練,再結(jié)合HMP考慮如下loss優(yōu)化三個子網(wǎng)絡(luò):

a. Rigid-aware structural matching:按照3D motion投影后rigid部分的結(jié)構(gòu)特點應(yīng)該match
b. Edge-aware local smoothness:投影后的深度和光流的應(yīng)該保持smoothness
c. Rigid-aware 3D motion consistency:rigid background的moving object motion值應(yīng)該盡量小
d. Flow motion consistency in occluded regions:occluded regions的光流前后映射應(yīng)該一致
e. Multi-scale penalization:累加4個尺度的loss

備注:在雙目攝像頭的表現(xiàn)優(yōu)于單目。通過joint learning,光流、深度、camera motion的表現(xiàn)均有提升。

在Kitti上的表現(xiàn)如下,算是差強人意吧。

本文作者還有一篇工作《Every Pixel Counts: Unsupervised Geometry Learning with Holistic 3D Motion Understanding》,是關(guān)于估計ego motion的。

《FlowNet3D: Learning Scene Flow in 3D Point Clouds》 CVPR 2018

輸入:僅使用點云數(shù)據(jù)

核心思想:采用pointnet++作為基本模塊,提取前后兩幀點云特征并進行融合、上采樣,直接擬合出scene flow

網(wǎng)絡(luò)結(jié)構(gòu)如下:

a. 4組set conv layer:pointnet++ 提取點云特征
b. 1組flow embedding layer: 把前后兩幀的點云特征mix,第一幀的取中心點,其臨近點從第二幀取,再提取特征
c. 4組set upconv layer:上采樣,新增點從鄰近點獲取特征

loss為smooth L1 loss

備注:在合成數(shù)據(jù)集上訓(xùn)練的模型可以直接在kitti上work,但與圖像場景流的論文不同,沒有把background和moving object做區(qū)分,沒有考慮ego motion。

《HPLFlowNet: Hierarchical Permutohedral Lattice FlowNet for Scene Flow Estimation on Large-scale Point Clouds》 CVPR 2019

輸入:僅使用點云數(shù)據(jù)

核心思想:采用Bilateral Convolutional Layers作為基本模塊,提取前后兩幀點云特征并進行融合、上采樣,直接擬合出scene flow。

備注:與FlowNet3D的整體結(jié)構(gòu)一樣,都是下采樣-融合-上采樣。Bilateral Convolutional Layers能夠快速處理高維稀疏數(shù)據(jù),是不同于PointNet的一種濾波操作。

《PointFlowNet: Learning Representations for Rigid Motion Estimation from Point Clouds》 CVPR 2019

輸入:僅使用點云數(shù)據(jù)

核心思想:利用點云數(shù)據(jù)提取特征后,分別生成ego motion、scene flow、rigid motion、objection location,再整合結(jié)果輸出

細(xì)節(jié)如下:

a. 采用VolexNet作為feature encoder
b. 把前后兩幀的特征進行concate,接入context encoder
c. 之后,接入三個分支:

i. ego-miotion regressor
ii. sceneflow decoder -> rigid motion decoder(證明了rigid motion decoder 無法使用卷積層,故此處采用了fc)
iii. objection location decoder

d. 把檢測出的object和motion融合得到結(jié)果

loss為 Scene Flow Loss + Rigid Motion Loss + Ego-motion Loss + Detection Loss

備注:本文思路與圖像類方法很像,也是考慮各個instance的motion。

總結(jié)

  • Deep Rigid Instance Scene Flow:

輸入為雙目圖像,用MaskRCNN把動靜態(tài)障礙物分開。三個子網(wǎng)絡(luò)分別獨立訓(xùn)練并計算出Instance Segmentation、深度圖、光流,利用三個子網(wǎng)絡(luò)的結(jié)果計算motion,進而得到scene flow。

  • Learning Rigidity in Dynamic Scenes with a Moving Camera for 3D Motion Field Estimation:

輸入為RGBD圖像,兩個子網(wǎng)絡(luò)分別獨立訓(xùn)練并算出光流、ego-motion&rigid mask,refine ego motion后算出scene flow。

  • Every Pixel Counts ++:

輸入為單目/雙目攝像頭,先用三個子網(wǎng)絡(luò)估計光流、深度、camera motion,再按照幾何關(guān)系計算出rigid background的motion和moving objects的motion,之后根據(jù)一致性對三個子網(wǎng)絡(luò)進行優(yōu)化。

  • FlowNet3D 以及 HPLFlowNet:

分別對前后兩幀點云下采樣提取特征并進行融合、上采樣,直接擬合出scene flow。

  • PointFlowNet(思路類似Deep Rigid Instance Scene Flow):

采用volexnet提取前后兩幀點云特征并融合,先檢測出object、計算出ego motion、scene flow,再去回歸各個object的motion。

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    34421

    瀏覽量

    275709
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48788

    瀏覽量

    246917
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    使用FX3測試程序中的數(shù)據(jù)時,遇到了每8個字節(jié)重復(fù)的場景,是什么原因?qū)е碌模?/a>

    我在使用 FX3 測試程序中的數(shù)據(jù)時,遇到了每 8 個字節(jié)重復(fù)的場景
    發(fā)表于 05-21 06:59

    弧光保護裝置與傳統(tǒng)過保護的差異

    弧光保護裝置與傳統(tǒng)過保護的差異: 對比項弧光保護裝置傳統(tǒng)過保護 檢測對象電弧光+電流突變僅電流幅值 動作時間5-15ms 1100ms-2s 適用場景開關(guān)柜內(nèi)部短路線路過載/遠(yuǎn)端短路 抗干擾能力多判據(jù)融合,誤動率低易受電機啟
    發(fā)表于 05-07 09:59

    在石化行業(yè),GUTOR UPS主要應(yīng)用哪些場景

    GUTOR UPS在石化行業(yè)適用于哪些場景
    發(fā)表于 03-06 15:41

    敏捷合成器的技術(shù)原理和應(yīng)用場景

    敏捷合成器,作為一種高性能的信號發(fā)生器,其技術(shù)原理和應(yīng)用場景值得深入探討。技術(shù)原理敏捷合成器的技術(shù)原理主要基于先進的頻率合成技術(shù)和數(shù)字信號處理技術(shù)。它通常具有寬頻率范圍、快速建立和可編程的相位、頻率
    發(fā)表于 02-20 15:25

    RTOS的緩沖區(qū)機制解析

    SAFERTOS中的緩沖區(qū)(Stream buffer)機制,可以實現(xiàn)任務(wù)到任務(wù)或中斷到任務(wù)之間的通信。字節(jié)流是由發(fā)送方寫入緩沖區(qū),接收方讀取緩沖區(qū)數(shù)據(jù)。緩沖區(qū)作為隊列的輕量級級替代方案,適合單讀單寫場景,寫者在
    的頭像 發(fā)表于 02-14 11:33 ?460次閱讀
    RTOS的<b class='flag-5'>流</b>緩沖區(qū)機制解析

    控行業(yè)中的恒壓泵和灌流泵的區(qū)別

    控恒壓泵和灌流泵的主要區(qū)別在于它們的工作原理、應(yīng)用場景以及流量控制的穩(wěn)定性和精度?。 一、工作原理? 微控恒壓泵:基于氣體驅(qū)動技術(shù),能夠精準(zhǔn)輸出恒定壓力的微量流體,實現(xiàn)無脈沖流動。它設(shè)計精巧
    的頭像 發(fā)表于 02-05 16:03 ?333次閱讀

    華為支付-(可選)特定場景配置操作

    如涉及以下場景,需提前完成相關(guān)產(chǎn)品的開通或配置操作。如不涉及,則不需要配置。 場景一:產(chǎn)品開通操作 部分支付場景接入涉及產(chǎn)品開通,未開通產(chǎn)品直接接入,商戶請求華為支付開放的API接口時可能會導(dǎo)致
    發(fā)表于 01-21 10:30

    多用示波器的原理和應(yīng)用場景

    多用示波器是一種功能強大的電子測量儀器,其原理和應(yīng)用場景如下:一、原理多用示波器主要是利用電子示波管的特性,將人眼無法直接觀測的交變電信號轉(zhuǎn)換成圖像,顯示在熒光屏上以便測量。具體來說,當(dāng)被測信號輸入
    發(fā)表于 01-09 15:42

    系統(tǒng)放大器的技術(shù)原理和應(yīng)用場景

    系統(tǒng)放大器是一種重要的電子設(shè)備,其技術(shù)原理和應(yīng)用場景都具有一定的專業(yè)性和廣泛性。以下是對系統(tǒng)放大器的技術(shù)原理和應(yīng)用場景的詳細(xì)介紹:一、技術(shù)原理系統(tǒng)放大器的工作原理基于電子器件的非線性特性,通過控制
    發(fā)表于 11-18 14:46

    HarmonyOS NEXT應(yīng)用元服務(wù)開發(fā)控件位置調(diào)整場景與重新設(shè)置新焦點位置的場景

    一、控件位置調(diào)整場景 移動過程中需要實時播報即將移動到的位置,新位置的播報會打斷老位置的播報,放置到確定位置后,需要再播報已經(jīng)放置的位置信息,盡量保證視障用戶耳朵聽到的信息和我們通過眼睛看到的信息
    發(fā)表于 10-25 09:49

    實時示波器的技術(shù)原理和應(yīng)用場景

    波形圖像。在信號處理方面,示波器首先將接收到的被測信號進行放大和濾波等處理,以確保信號的準(zhǔn)確性和穩(wěn)定性。然后,通過A/D轉(zhuǎn)換技術(shù),將模擬信號轉(zhuǎn)換為數(shù)字信號,以便進行后續(xù)的數(shù)字處理和顯示。二、應(yīng)用場景
    發(fā)表于 10-23 14:22

    如何有效解決固耦合問題

    固耦合問題的基本概念 固耦合問題是指在流體和固體相互作用的過程中,流體的運動受到固體邊界的影響,同時固體的變形和應(yīng)力狀態(tài)也受到流體的作用。固耦合問題具有以下特點: 1.1 多學(xué)科性:
    的頭像 發(fā)表于 08-09 15:16 ?1487次閱讀

    LED恒驅(qū)動芯片:升壓恒和降壓恒的區(qū)別和應(yīng)用場景

    輸入電壓,使其高于LED正常工作電壓,以實現(xiàn)恒定的LED電流輸出。在升壓恒驅(qū)動中,驅(qū)動電路將輸入電壓升高至所需電壓,并保持輸出電流恒定。 升壓恒驅(qū)動適用于需要將低電壓源提升至較高電壓來驅(qū)動LED的場景,例如電池供電的手持設(shè)備
    的頭像 發(fā)表于 08-09 13:47 ?4020次閱讀

    FPGA與MCU的應(yīng)用場景

    肯定是不同的。在需要處理多個高速數(shù)據(jù)場景下,F(xiàn)PGA的多通道IO接口設(shè)計能力顯得尤為重要,例如PCIe、DDR還是其他高速通信協(xié)議。FPGA可以進行高速數(shù)字信號處理,能夠以極高的效率執(zhí)行數(shù)
    發(fā)表于 07-29 15:45

    圖像檢測和圖像識別的原理、方法及應(yīng)用場景

    圖像檢測和圖像識別是計算機視覺領(lǐng)域的兩個重要概念,它們在許多應(yīng)用場景中發(fā)揮著關(guān)鍵作用。 1. 定義 1.1 圖像檢測 圖像檢測(Object
    的頭像 發(fā)表于 07-16 11:19 ?6673次閱讀
    主站蜘蛛池模板: 五月婷六月 | www.在线视频| 四虎色影院 | 亚洲黄页网站 | 人人干网 | 国产黄色大片又色又爽 | 久久伊人男人的天堂网站 | 天天做天天爱天天影视综合 | 操亚洲| 三浦理惠子中文在 | 亚洲天堂视频在线观看免费 | 四虎国产精品免费观看 | 亚洲欧美在线一区二区 | 婷婷六月丁香色婷婷网 | 男人操女人视频网站 | 1024人成网色www | 日本污视频 | 一区二区三区在线免费 | 手机看片日韩福利 | 视频在线一区 | 日本精高清区一 | 精品综合久久久久久98 | 2021最新久久久视精品爱 | 狠狠干网 | 在线黄色免费观看 | 91破处视频 | 女bbbbxxxx毛片视频丶 | 奇米激情 | 天天噜日日噜夜夜噜 | www.五月天婷婷 | 深夜动态福利gif进出粗暴 | 欧美a色爱欧美综合v | 天堂在线观看视频观看www | 男人的网址 | 亚洲爱爱网站 | 久久亚洲视频 | 色网站免费看 | 午夜快播 | 日本s色大片在线观看 | 未成人禁止视频高清在线观看 | 免费鲁丝片一级观看 |