91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個基于學(xué)習(xí)的LiDAR點(diǎn)云3D線特征分割和描述模型

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-01-12 17:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這個工作來自于浙江大學(xué)和DAMO academy。在點(diǎn)云配準(zhǔn)領(lǐng)域,盡管已經(jīng)有很多方法被提出來,但是無論是傳統(tǒng)方法,還是近年來蓬勃發(fā)展的基于深度學(xué)習(xí)的三維點(diǎn)云配置方法,其實(shí)在真正應(yīng)用到真實(shí)的LiDAR掃描點(diǎn)云幀時都會出現(xiàn)一些問題。造成這種困窘的一個主要的原因在于LiDAR掃描到的點(diǎn)云分布極不均勻。

具體而言,相較于RGBD相機(jī),LiDAR的有效掃描深度要大很多。隨著深度的增大,其激光發(fā)射出去的扇面將會變得稀疏。因此,即使是掃描同一目標(biāo)或場景的點(diǎn)云幀之間,其尺度并不一致。導(dǎo)致想要研究的關(guān)鍵點(diǎn)周圍的鄰域點(diǎn)分布也存在較大不同,難以通過這些3D點(diǎn)的特征描述關(guān)聯(lián)起點(diǎn)云幀。

這個問題一直以來都十分棘手。這個工作獨(dú)辟蹊徑,提出對于這種點(diǎn)云數(shù)據(jù),不再通過3D點(diǎn)來構(gòu)建關(guān)聯(lián)以實(shí)現(xiàn)點(diǎn)云配準(zhǔn),而是研究點(diǎn)云數(shù)據(jù)中的高層次的幾何原語。這種做法直觀來說是有道理的,因?yàn)檫@些高層次的幾何原語通常會有較大的支撐點(diǎn)集,換句話說,其對于點(diǎn)云掃描和采樣具有較大的魯棒性,通常不會因?yàn)槟硞€點(diǎn)沒有被記錄而影響相應(yīng)幾何原語的提取。

同時,幾何原語通常具有更具體的特征和幾何結(jié)構(gòu),例如一條直線、一個平面等,其更容易構(gòu)建不同幀間的關(guān)聯(lián),避免誤匹配。但是,這種研究思路通常難度較大,原因在于缺乏足夠的有標(biāo)簽的數(shù)據(jù)集。在這種情況下,這個工作顯得極其重要,它不僅僅提供了一個數(shù)據(jù)集自動標(biāo)注模型,同樣也是少數(shù)真正開始探索幾何原語用于點(diǎn)云配準(zhǔn)任務(wù)的先河性的工作。

摘要:交通桿和建筑物邊緣是城市道路上經(jīng)常可以觀察到的物體,為各種計(jì)算機(jī)視覺任務(wù)傳達(dá)了可靠的提示。為了重復(fù)提取它們作為特征并在離散的LiDAR幀之間進(jìn)行關(guān)聯(lián)以進(jìn)行配準(zhǔn),我們提出了第一個基于學(xué)習(xí)的LiDAR點(diǎn)云3D線特征分割和描述模型。

為了在沒有耗時和繁瑣的數(shù)據(jù)標(biāo)記過程的情況下訓(xùn)練我們的模型,我們首先為目標(biāo)線的基本外觀生成合成原語,并構(gòu)建一個迭代線自動標(biāo)注過程以逐漸調(diào)整真實(shí)LiDAR掃描的線標(biāo)簽。我們的分割模型可以在任意尺度擾動下提取線,并且我們使用共享的EdgeConv編碼器層來聯(lián)合訓(xùn)練兩個分割和描述符提取頭。

基于該模型,我們可以在沒有初始變換提示的情況下構(gòu)建一個用于點(diǎn)云配準(zhǔn)的高可用性全局配準(zhǔn)模塊。實(shí)驗(yàn)表明,我們的基于線的配準(zhǔn)方法與最先進(jìn)的基于點(diǎn)的方法相比具有很強(qiáng)的競爭力。

主要貢獻(xiàn):

1.據(jù)我們所知,我們提出了第一個基于學(xué)習(xí)的激光雷達(dá)掃描線分割和描述網(wǎng)絡(luò),為全局配準(zhǔn)提出了一個適用的特征類別。

2.我們提出了一種用于點(diǎn)云線標(biāo)注方法,該方法可以將從合成數(shù)據(jù)中學(xué)習(xí)的模型遷移到真實(shí)的LiDAR掃描點(diǎn)云以進(jìn)行自動標(biāo)注。

3.我們探索了點(diǎn)云特征的尺度不變性,并通過消除Sim(3)變換中的尺度因子,為改善點(diǎn)云上基于學(xué)習(xí)的任務(wù)在尺度擾動下的泛化提供了可行的思路

560cada8-84fb-11ed-bfe3-dac502259ad0.png

Fig1:整體網(wǎng)絡(luò)框架。a):我們在合成數(shù)據(jù)上訓(xùn)練尺度不變的分割,并在多次幾何自適應(yīng)迭代后得到精確的線標(biāo)簽。b):我們同時在標(biāo)注的LiDAR掃描點(diǎn)云上訓(xùn)練分割和描述符提取網(wǎng)絡(luò),其中紅色、紫色和綠色層分別代表編碼器、分割網(wǎng)絡(luò)頭和描述符提取網(wǎng)絡(luò)頭。

方法介紹: 考慮到缺乏可用的LiDAR掃描點(diǎn)云的有標(biāo)簽線數(shù)據(jù)集,我們遵循SuperPoint的自監(jiān)督思想來訓(xùn)練我們的線分割模型,首先構(gòu)建一個簡單的合成數(shù)據(jù)來初始化一個基礎(chǔ)模型,然后使用幾何自適應(yīng)的自動標(biāo)記真實(shí)LiDAR掃描點(diǎn)云進(jìn)行迭代來調(diào)整模型。之后我們收集不同LiDAR掃描點(diǎn)云幀之間的線對應(yīng)關(guān)系,并以端到端的方法聯(lián)合訓(xùn)練線分割和描述符提取網(wǎng)絡(luò)。

一、線分割模型

1)合成數(shù)據(jù)生成.

兩種類型的可靠線段可以檢測:

1)平面之間的交線,以及2)交通桿。因此,我們選擇使用圖2(a)所示的以下兩個網(wǎng)格原語分別模擬它們的局部外觀。這兩個網(wǎng)格模型首先被均勻采樣成4000個點(diǎn),如圖 2(b) 所示,每個點(diǎn)添加5%的相對3自由度位置擾動。然后,為了模擬附近可能的背景點(diǎn),我們隨機(jī)裁剪了40 個基本原語,每個原語包含1000個來自真實(shí)掃描點(diǎn)云的點(diǎn),并將它們放在一起組成最終的合成數(shù)據(jù)。我們總共生成了5000個合成點(diǎn)云,每個點(diǎn)云有5000個點(diǎn)。

?2)尺度不變線分割.

我們將線檢測視為點(diǎn)云分割問題,主要挑戰(zhàn)是原語尺度縮放問題:在真實(shí)的LiDAR點(diǎn)云幀中,點(diǎn)的密度隨著掃描距離的增加而降低,而當(dāng)目標(biāo)特征遠(yuǎn)離傳感器時,體素網(wǎng)格下采樣不能完全歸一化密度。此外,我們的合成數(shù)據(jù)生成也沒有考慮線的尺度(如圖 2(e)放在一起時所示)。如果不處理這個問題,當(dāng)訓(xùn)練和測試數(shù)據(jù)在不同的尺度上時,模型將不會產(chǎn)生合理的預(yù)測。 我們的網(wǎng)絡(luò)通過消除Sim(3)變換的尺度因子s和使用相對距離來解決這個問題,如:

56899fac-84fb-11ed-bfe3-dac502259ad0.png

在上式中,我們搜索點(diǎn)p的k=20個最近點(diǎn)56a29cd2-84fb-11ed-bfe3-dac502259ad0.png,并計(jì)算尺度不變的局部特征f(p與其近鄰點(diǎn)之間的曼哈頓距離與歐幾里得距離之比)。這種特征定義的損失在于f不能反映原點(diǎn)在歐幾里德空間中的位置,因此此變換存在信息損失。 3)模型結(jié)構(gòu). 我們選擇DGCNN作為我們的主干,因?yàn)樗苯訉c(diǎn)及其最近的近鄰點(diǎn)進(jìn)行編碼而無需復(fù)雜的操作。下式展示了其被稱為EdgeConv的局部特征編碼函數(shù),其中56bc6fc2-84fb-11ed-bfe3-dac502259ad0.png是第j個特征,56d251de-84fb-11ed-bfe3-dac502259ad0.png是特征空間 S中 56bc6fc2-84fb-11ed-bfe3-dac502259ad0.png的鄰居, h是學(xué)習(xí)的模型。 56fb3c66-84fb-11ed-bfe3-dac502259ad0.png 在第一個EdgeConv層中,x表示歐氏空間中的點(diǎn)坐標(biāo)。在我們的實(shí)現(xiàn)中,我們收集每個點(diǎn)的k=20個最近鄰點(diǎn)并計(jì)算尺度不變特征f。然后我們把第一個EdgeConv層變成: 5719a80e-84fb-11ed-bfe3-dac502259ad0.png 它用尺度不變的特征f代替了歐氏空間中的坐標(biāo),但57318f78-84fb-11ed-bfe3-dac502259ad0.png仍然是歐氏空間中第i個鄰居點(diǎn)5746e602-84fb-11ed-bfe3-dac502259ad0.png的特征,而不是57626eae-84fb-11ed-bfe3-dac502259ad0.png在特征空間中的鄰居。由于在生成尺度不變特征時,原始?xì)W氏空間中的部分信息已經(jīng)丟失,保留原始?xì)W氏空間中的鄰域關(guān)系可以減少進(jìn)一步的信息丟失。

57795da8-84fb-11ed-bfe3-dac502259ad0.png

Fig2:合成數(shù)據(jù)生成步驟。我們通過對原始網(wǎng)格模型進(jìn)行采樣并將真實(shí)掃描散點(diǎn)作為噪聲來增強(qiáng)生成合成數(shù)據(jù)。

4)自動線標(biāo)注.

當(dāng)前沒有可用的 LiDAR點(diǎn)云有標(biāo)簽線數(shù)據(jù)集,并且難以對點(diǎn)云進(jìn)行手動標(biāo)記。因此,我們構(gòu)建了一個自動線標(biāo)注框架(圖 3)。受SuperPoint啟發(fā),我們對LiDAR掃描點(diǎn)云執(zhí)行幾何自適應(yīng)。首先,我們僅在合成數(shù)據(jù)上訓(xùn)練一個尺度不變的分割模型,并將XOY中20m和偏航 360°的均勻分布的2D變換應(yīng)用于LiDAR掃描點(diǎn)云。

然后,我們使用經(jīng)過訓(xùn)練的模型來預(yù)測擾動數(shù)據(jù)上的標(biāo)簽,聚合來自所有擾動幀的結(jié)果,并將超過80%預(yù)測屬于線的點(diǎn)作為候選點(diǎn)。為了將點(diǎn)聚類成線,我們使用區(qū)域增長算法。點(diǎn)之間的連通性通過0.5m搜索半徑的KD-Tree定義。我們使用標(biāo)注點(diǎn)作為種子,生長到附近的標(biāo)注點(diǎn),并擬合線。

一旦提取了此類線,我們將繼續(xù)在獲得的有標(biāo)簽LiDAR掃描點(diǎn)云上調(diào)整分割模型。我們重復(fù)幾何自適應(yīng)3次以在KITTI里程計(jì)序列上生成12989個自動標(biāo)注的 LiDAR幀。

582b28f8-84fb-11ed-bfe3-dac502259ad0.png

Fig3:自動標(biāo)注框架。我們使用幾何自適應(yīng)和線擬合來減少網(wǎng)絡(luò)預(yù)測噪聲,并通過迭代訓(xùn)練提高真實(shí)LiDAR掃描點(diǎn)云的模型精度。

二、聯(lián)系訓(xùn)練線分割和描述符提取網(wǎng)絡(luò)

1)線描述符的定義.

不同于只需要線段兩個端點(diǎn)的幾何定義,每條線的描述符應(yīng)通過其所有所屬點(diǎn)傳達(dá)局部外觀,因?yàn)橛^察到的端點(diǎn)可能由于可能的遮擋而在幀之間變化。因此,我們將描述符定義為其所有所屬點(diǎn)的平均值。

58584856-84fb-11ed-bfe3-dac502259ad0.png

Fig4: 網(wǎng)絡(luò)架構(gòu)。該網(wǎng)絡(luò)使用EdgeConv模塊來提取特征。分割網(wǎng)絡(luò)頭和描述符提取頭分別用于預(yù)測每個點(diǎn)的標(biāo)簽和描述符。

2)網(wǎng)絡(luò)結(jié)構(gòu).

我們的網(wǎng)絡(luò)結(jié)構(gòu)(圖4)由堆疊的三個EdgeConv層組成,用于特征編碼,兩個解碼器分別用于線分割和描述。每個EdgeConv層輸出一個588bb768-84fb-11ed-bfe3-dac502259ad0.png張量,在max-pooling層之后用于3層的分割和描述。我們使用ReLU進(jìn)行激活。分割網(wǎng)絡(luò)頭將特征向量卷積后變成一個58a246fe-84fb-11ed-bfe3-dac502259ad0.png大小的張量(N為輸入點(diǎn)數(shù)),然后通過softmax層得到每個點(diǎn)的布爾坐標(biāo),預(yù)測是否屬于一條線。描述符提取網(wǎng)絡(luò)頭輸出一個大小為58b7cd94-84fb-11ed-bfe3-dac502259ad0.png的張量,然后進(jìn)行L2歸一化得到一個d維的描述符。 3)損失函數(shù).我們的分割損失58d1f1ce-84fb-11ed-bfe3-dac502259ad0.png是一個標(biāo)準(zhǔn)的交叉熵?fù)p失,對于描述符損失,我們首先使用線段標(biāo)簽得到每條線段的均值描述符u,然后使用58e3e816-84fb-11ed-bfe3-dac502259ad0.png將點(diǎn)描述符拉向u。58fa4a48-84fb-11ed-bfe3-dac502259ad0.png的提出是為了讓不同行的描述符相互排斥。此外,對于點(diǎn)云對,我們計(jì)算匹配損失59127528-84fb-11ed-bfe3-dac502259ad0.png和非匹配線之間的損失59318dc8-84fb-11ed-bfe3-dac502259ad0.png。每一個損失項(xiàng)都可以寫成如下形式:

594d8eb0-84fb-11ed-bfe3-dac502259ad0.png

其中N是檢測到的線數(shù),5a043e6c-84fb-11ed-bfe3-dac502259ad0.png代表兩條線的所有對。i和j是兩個迭代器,分別用于直線和直線上的點(diǎn)。5a199d98-84fb-11ed-bfe3-dac502259ad0.png是一條線的平均描述符,5a2f10ba-84fb-11ed-bfe3-dac502259ad0.png是其相關(guān)點(diǎn)j的描述符。5a47b1d8-84fb-11ed-bfe3-dac502259ad0.png5a6544a0-84fb-11ed-bfe3-dac502259ad0.png是另一個關(guān)聯(lián)點(diǎn)云的平均描述符,5a83fee0-84fb-11ed-bfe3-dac502259ad0.png5aa05b08-84fb-11ed-bfe3-dac502259ad0.png分別為正負(fù)邊緣。5ab636ee-84fb-11ed-bfe3-dac502259ad0.png, 且表示L1距離。最后,我們使用5ad42898-84fb-11ed-bfe3-dac502259ad0.png來平衡最終的損失: 5aed13e4-84fb-11ed-bfe3-dac502259ad0.png

3)基于線的配準(zhǔn).

我們的網(wǎng)絡(luò)為每個點(diǎn)輸出標(biāo)簽和描述符。我們首先提取線,然后我們執(zhí)行描述符匹配以獲得行對應(yīng)。匹配描述符的閾值設(shè)置為0.1。用于將源云5b0636ee-84fb-11ed-bfe3-dac502259ad0.png注冊到目標(biāo)點(diǎn)云的變換通過最小化所有線匹配代價(jià)5b21852a-84fb-11ed-bfe3-dac502259ad0.png中的點(diǎn)到線距離進(jìn)行優(yōu)化: 5b3956dc-84fb-11ed-bfe3-dac502259ad0.png 其中5b683182-84fb-11ed-bfe3-dac502259ad0.png是源點(diǎn)云中的線上的點(diǎn),5b7ca658-84fb-11ed-bfe3-dac502259ad0.png5b95138c-84fb-11ed-bfe3-dac502259ad0.png是線i的匹配線5baaa0b2-84fb-11ed-bfe3-dac502259ad0.png的端點(diǎn)。









審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3822

    瀏覽量

    138381
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    971

    文章

    4244

    瀏覽量

    193112
  • RGBD數(shù)據(jù)
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1090

原文標(biāo)題:SuperLine3D:從3D點(diǎn)到3D線

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    LiDAR如何構(gòu)建3D點(diǎn)?如何利用LiDAR提供深度信息

    3D模型LiDAR 系統(tǒng)捕獲的圖像中的每個像素都將具有與之關(guān)聯(lián)的深度。這樣可以更好地識別物體,并消除僅采用圖像傳感器獲得的2D圖像中可能存在的模糊。
    的頭像 發(fā)表于 04-06 12:00 ?4706次閱讀
    <b class='flag-5'>LiDAR</b>如何構(gòu)建<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>?如何利用<b class='flag-5'>LiDAR</b>提供深度信息

    基于3D點(diǎn)的多任務(wù)模型在板端實(shí)現(xiàn)高效部署

    對于自動駕駛應(yīng)用來說,3D 場景感知至關(guān)重要。3D點(diǎn)數(shù)據(jù)就是具有3D特征的數(shù)據(jù)。
    的頭像 發(fā)表于 12-28 16:35 ?2199次閱讀
    基于<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>的多任務(wù)<b class='flag-5'>模型</b>在板端實(shí)現(xiàn)高效部署

    基于深度學(xué)習(xí)的方法在處理3D點(diǎn)進(jìn)行缺陷分類應(yīng)用

    背景部分介紹了3D點(diǎn)應(yīng)用領(lǐng)域中公開可訪問的數(shù)據(jù)集的重要性,這些數(shù)據(jù)集對于分析和比較各種模型至關(guān)重要。研究人員專門設(shè)計(jì)了各種數(shù)據(jù)集,包括用于3D
    的頭像 發(fā)表于 02-22 16:16 ?1962次閱讀
    基于深度<b class='flag-5'>學(xué)習(xí)</b>的方法在處理<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>進(jìn)行缺陷分類應(yīng)用

    浩辰3D軟件中如何創(chuàng)建槽特征3D模型設(shè)計(jì)教程!

    ,然后單擊新槽(2) 的路徑,最后單擊以放置新槽 (3)。 可以每次或每個圍欄地添加更多槽,或者選擇多個路徑來同時創(chuàng)建多個槽。以上就
    發(fā)表于 09-28 16:16

    3D軟件中如何應(yīng)用文本特征3D文本特征應(yīng)用技巧

    精準(zhǔn)的標(biāo)注。浩辰3D軟件的文本特征應(yīng)用,能幫助設(shè)計(jì)工程師以順序建模設(shè)計(jì)方式,快速創(chuàng)建特征,實(shí)現(xiàn)精準(zhǔn)化標(biāo)注。下面,小編給大家介紹下如何使用浩辰3D
    發(fā)表于 04-22 17:28

    點(diǎn)問題的介紹及3D點(diǎn)技術(shù)在VR中的應(yīng)用

    。即便是掃描最小的對象,系統(tǒng)都會創(chuàng)建上百萬這樣的點(diǎn),所以要管理這樣的海量數(shù)據(jù)并不容易。CAD軟件可以連接各個點(diǎn),但這過程需要大量的計(jì)算資源,完善成品模型往往是
    發(fā)表于 09-27 15:27 ?17次下載

    散亂點(diǎn)數(shù)據(jù)特征信息提取算法

    特征提取不僅可以更好地刻畫三維模型特征,并且其在模型重建、點(diǎn)
    發(fā)表于 01-30 16:35 ?0次下載
    散亂<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>數(shù)據(jù)<b class='flag-5'>特征</b>信息提取算法

    3D模型的加權(quán)特征點(diǎn)調(diào)和表達(dá)

    大規(guī)模的3D模型庫中準(zhǔn)確快速地找到自己需要的模型。近年來許多學(xué)者在這方面進(jìn)行了大量的研究,但主要都是針對模型的整體特征進(jìn)行檢索,本文是在以往
    發(fā)表于 02-10 10:19 ?5次下載

    如何在LiDAR點(diǎn)上進(jìn)行3D對象檢測

    該項(xiàng)目將借助KV260上的PYNQ-DPU覆蓋,從而能夠使我們在LiDAR點(diǎn)上進(jìn)行3D對象檢測比以往任何時候都更加高效!
    的頭像 發(fā)表于 04-26 17:41 ?2664次閱讀
    如何在<b class='flag-5'>LiDAR</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>上進(jìn)行<b class='flag-5'>3D</b>對象檢測

    何為3D點(diǎn)語義分割

    融合標(biāo)注使用的3D標(biāo)注工具仍以3D立體框?yàn)橹鳎?b class='flag-5'>3D點(diǎn)數(shù)據(jù)以外,還需要使用2D標(biāo)注工具在
    的頭像 發(fā)表于 07-21 15:52 ?9649次閱讀

    如何直接建立2D圖像中的像素和3D點(diǎn)云中的點(diǎn)之間的對應(yīng)關(guān)系

    準(zhǔn)確描述和檢測 2D3D 關(guān)鍵點(diǎn)對于建立跨圖像和點(diǎn)的對應(yīng)關(guān)系至關(guān)重要。盡管已經(jīng)提出了大量
    的頭像 發(fā)表于 10-18 09:20 ?1w次閱讀

    基于深度學(xué)習(xí)3D分割綜述(RGB-D/點(diǎn)/體素/多目)

    數(shù)據(jù)集對于使用深度學(xué)習(xí)訓(xùn)練和測試3D分割算法至關(guān)重要。然而,私人收集和標(biāo)注數(shù)據(jù)集既麻煩又昂貴,因?yàn)樗枰I(lǐng)域?qū)I(yè)知識、高質(zhì)量的傳感器和處理設(shè)備。
    的頭像 發(fā)表于 11-04 11:36 ?2811次閱讀

    NeuralLift-360:將野外的2D照片提升為3D物體

    3D點(diǎn)云中生成可渲染的3D網(wǎng)格:使用基于深度學(xué)習(xí)的方法來將
    的頭像 發(fā)表于 04-16 10:02 ?2546次閱讀

    基于深度學(xué)習(xí)點(diǎn)分割的方法介紹

      摘 要:點(diǎn)分割點(diǎn)數(shù)據(jù)理解中的關(guān)鍵技術(shù),
    發(fā)表于 07-20 15:23 ?3次下載

    基于深度學(xué)習(xí)3D點(diǎn)實(shí)例分割方法

    3D實(shí)例分割3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由點(diǎn)云表示的
    發(fā)表于 11-13 10:34 ?3327次閱讀
    基于深度<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>實(shí)例<b class='flag-5'>分割</b>方法
    主站蜘蛛池模板: 伊人久久大香线蕉综合爱婷婷 | 色妞干网| 国产一级一级片 | 久久综合偷偷噜噜噜色 | 欧美一级片手机在线观看 | 六月天丁香婷婷 | 国产一区二区三区影院 | 在线看逼| 在线观看免费黄视频 | 午夜免费片在线观看不卡 | 新版天堂资源中文8在线 | 波多野结衣在线观看一区 | 天天操一操 | 一级片aaaa | 他也色在线视频 | 最新四虎4hu影库地址在线 | 色综合99 | 免费一看一级毛片 | 中文字幕视频二区 | 情久久| 欧美性黑人极品1819hd | 国产精品五月天 | 亚洲国产成+人+综合 | 成人精品视频一区二区三区 | 黄频免费| 男男互攻h啪肉np文厉世 | 久久伊人成人网 | 色www视频永久免费 色www视频永久免费软件 | 男人的天堂久久精品激情 | 四虎永久精品视频在线 | 2018天天干夜夜操 | 国产成人亚洲综合a∨婷婷 国产成人一区二区三中文 国产成人一区二区在线不卡 | 婷婷色激情 | 天天做.天天爱.天天综合网 | 久久久www免费人成看片 | 免费视频精品 | 四虎影视在线影院在线观看 | 免费日韩一级片 | 亚洲欧美一区二区三区四区 | 亚州一级毛片在线 | 亚洲 欧美 视频 |