在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Limap:基于3D line的重建算法

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-04-18 10:12 ? 次閱讀

主要內(nèi)容:

提出了一種基于線(xiàn)的重建算法,Limap,可以從多視圖圖像中構(gòu)建3D線(xiàn)地圖,通過(guò)線(xiàn)三角化、精心設(shè)計(jì)的評(píng)分和track構(gòu)建以及利用線(xiàn)的重合,平行性和正交性等結(jié)構(gòu)先驗(yàn)來(lái)實(shí)現(xiàn)的,可以與現(xiàn)有的基于點(diǎn)的SFM算法集成,并且可以利用其3D點(diǎn)來(lái)進(jìn)一步改善線(xiàn)重建的結(jié)果。

構(gòu)建的3D線(xiàn)地圖也開(kāi)辟了新的研究方向,即基于線(xiàn)的視覺(jué)定位和BA,其中將線(xiàn)與點(diǎn)結(jié)合在一起會(huì)產(chǎn)生最佳結(jié)果。

代碼開(kāi)源在https://github.com/cvg/limap.

d70c2196-dd74-11ed-bfe3-dac502259ad0.png

點(diǎn)云地圖與線(xiàn)地圖:

目前通過(guò)SFM估計(jì)場(chǎng)景幾何結(jié)構(gòu)和構(gòu)建稀疏地圖主要是基于點(diǎn)的方法,即提取匹配圖像中的關(guān)鍵點(diǎn),然后三角化,BA。

但是基于特征點(diǎn)構(gòu)建點(diǎn)云地圖在沒(méi)有足夠穩(wěn)定的關(guān)鍵點(diǎn)去檢測(cè)匹配的時(shí)候,比如室內(nèi)場(chǎng)景,往往效果不好。但是這些場(chǎng)景基本都包含豐富的線(xiàn)條,例如在墻壁、窗戶(hù)、門(mén)或天花板,而且線(xiàn)往往表現(xiàn)出更高的定位精度,因?yàn)槠湎袼氐牟淮_定性較小。線(xiàn)常常以高度結(jié)構(gòu)化的模式出現(xiàn),通常滿(mǎn)足場(chǎng)景范圍的幾何約束,例如共面性,重合 (線(xiàn)相交),平行和正交性。但是線(xiàn)也會(huì)遇到不同的問(wèn)題,例如線(xiàn)端點(diǎn)定位不良和部分遮擋。然而,最近的線(xiàn)檢測(cè)器和匹配正在彌合點(diǎn)和線(xiàn)之間的性能差距,目前線(xiàn)圖構(gòu)建的困難在于:

(1)線(xiàn)端點(diǎn)不一致:由于部分遮擋,線(xiàn)通常在圖像之間具有不一致的端點(diǎn)。

(2)線(xiàn)割裂:在每個(gè)圖像中,可能有多個(gè)線(xiàn)段屬于3D中的同一條線(xiàn)。與構(gòu)建3D點(diǎn)track相比,創(chuàng)建線(xiàn)的track關(guān)聯(lián)的過(guò)程更加復(fù)雜。

(3)沒(méi)有兩視圖幾何驗(yàn)證:點(diǎn)匹配可以通過(guò)極幾何在兩個(gè)視圖中驗(yàn)證,但線(xiàn)至少需要三個(gè)視圖來(lái)過(guò)濾

(4)退化:在實(shí)踐中,線(xiàn)三角化更傾向于不穩(wěn)定的配置 (參見(jiàn)圖8),例如每當(dāng)線(xiàn)與相機(jī)運(yùn)動(dòng)平行時(shí),線(xiàn)三角化會(huì)退化。

d728f3fc-dd74-11ed-bfe3-dac502259ad0.png

(5)較弱的基于描述子的匹配:線(xiàn)段的最新描述子遠(yuǎn)遠(yuǎn)落后于基于點(diǎn)的描述子,因此在重建過(guò)程中更加強(qiáng)調(diào)幾何驗(yàn)證和過(guò)濾。

為此,本篇文章旨在減少基于點(diǎn)的建圖解決方案和基于線(xiàn)的建圖解決方案之間的差距

Contributions:

(1)構(gòu)建了一個(gè)新的線(xiàn)建圖系統(tǒng),該系統(tǒng)可以從多視圖RGB圖像中可靠地重建3D線(xiàn)段。與以前的方法相比,構(gòu)建的線(xiàn)圖更完整、更準(zhǔn)確

(2)通過(guò)自動(dòng)識(shí)別和利用結(jié)構(gòu)先驗(yàn) (例如線(xiàn)重合和平行) 來(lái)實(shí)現(xiàn)這一目標(biāo)。技術(shù)貢獻(xiàn)涵蓋了線(xiàn)圖的所有階段,包括線(xiàn)三角化,評(píng)分,track構(gòu)建和聯(lián)合優(yōu)化。

(3)該框架是靈活的,因此研究人員可以輕松地更改組件 (例如檢測(cè)器,匹配器,消失點(diǎn)估計(jì)器等) 或集成其他傳感器數(shù)據(jù) (例如深度圖或其他3D信息)

(4)通過(guò)對(duì)合成和真實(shí)數(shù)據(jù)集進(jìn)行定量評(píng)估來(lái)對(duì)性能進(jìn)行基準(zhǔn)測(cè)試,每個(gè)場(chǎng)景都有數(shù)百?gòu)垐D像,其中LIMAP始終顯著優(yōu)于現(xiàn)有方法

(5)通過(guò)在諸如視覺(jué)定位和SFM中的BA之類(lèi)的任務(wù)中比純基于點(diǎn)的方法有所改進(jìn),來(lái)證明強(qiáng)大的線(xiàn)圖的有用性。

Pipeline:

d7566c38-dd74-11ed-bfe3-dac502259ad0.png

輸入:圖像,還可以額外添加點(diǎn)云模型。假設(shè)每個(gè)圖像的相機(jī)姿勢(shì)是可用的 (例如,來(lái)自SfM/SLAM)。

算法包括三個(gè)主要步驟:

(1)假設(shè)生成: 對(duì)于每個(gè)2D線(xiàn)段,生成一組3D線(xiàn)假設(shè)。

(2)假設(shè)評(píng)分和track關(guān)聯(lián): 考慮到多視圖一致性對(duì)每個(gè)假設(shè)進(jìn)行評(píng)分,為每個(gè)2D線(xiàn)選擇最佳候選,并將它們關(guān)聯(lián)到一組3D線(xiàn)track中。

(3)聯(lián)合優(yōu)化: 與3D點(diǎn)和VP(消失點(diǎn))方向一起在3D線(xiàn)track上共同執(zhí)行非線(xiàn)性細(xì)化,將附加的結(jié)構(gòu)先驗(yàn)集成為軟約束。

論文技術(shù)點(diǎn):

生成三維線(xiàn)假設(shè):

為每個(gè)2D線(xiàn)段生成一組3D線(xiàn)假設(shè),給定圖像中的一個(gè)線(xiàn)段,使用任何現(xiàn)有的線(xiàn)匹配算法來(lái)檢索n個(gè)最接近的圖像中的前K個(gè)線(xiàn)匹配。

d7807f00-dd74-11ed-bfe3-dac502259ad0.png

λ1和 λ2是投影矩陣,讓所有假設(shè)的三維線(xiàn)的端點(diǎn)位于2D端點(diǎn)對(duì)應(yīng)的相機(jī)光線(xiàn)上。

對(duì)于每個(gè)匹配的2D線(xiàn)段,通過(guò)代數(shù)線(xiàn)三角化生成一個(gè)假設(shè)。設(shè) (Rm,tm) 為匹配視圖的相機(jī)姿態(tài)。然后線(xiàn)性求解端點(diǎn)射線(xiàn)深度 λ :

d79383b6-dd74-11ed-bfe3-dac502259ad0.png

d7a7bb1a-dd74-11ed-bfe3-dac502259ad0.png

因?yàn)樯厦嬷v了線(xiàn)三角化會(huì)出現(xiàn)退化,為了在退化的情況下獲得有意義的假設(shè),利用來(lái)自點(diǎn)或相關(guān)消失點(diǎn) (VPs) 的其他幾何信息,即2D-3D點(diǎn)對(duì)應(yīng)關(guān)系,這可以來(lái)自基于點(diǎn)的SfM模型,也可以從匹配的端點(diǎn)進(jìn)行三角化。對(duì)于每個(gè)2D線(xiàn)段,將一個(gè)像素閾值內(nèi)的所有2D點(diǎn)關(guān)聯(lián)起來(lái),從而與它們對(duì)應(yīng)的3D點(diǎn)關(guān)聯(lián)起來(lái)。

借助相關(guān)的2D-3D點(diǎn)對(duì)應(yīng)和消失點(diǎn),為每個(gè)2D線(xiàn)段生成第二組假設(shè)

假設(shè)評(píng)分和軌跡關(guān)聯(lián):

現(xiàn)在圖像I中的每個(gè)2D線(xiàn)段與每個(gè)相鄰圖像J的一組3D線(xiàn)假設(shè)相關(guān)聯(lián)。這部分要對(duì)這些假設(shè)進(jìn)行評(píng)分并進(jìn)行track關(guān)聯(lián)。

利用不同的評(píng)分方法來(lái)量化兩個(gè)3D線(xiàn)段 (L1,L2) 之間的距離。這個(gè)距離可以在三維或者二維進(jìn)行度量。

距離度量:

有角距離(L1和L2之間的角度),

垂直距離(L1的端點(diǎn)到L2跨越最大正交距離)

透視距離: 假設(shè)L1和L2的端點(diǎn)在相同的光線(xiàn)上,該距離被定義為端點(diǎn)距離,如下圖所示。

利用2D和3D中的角距離,以及2D中的垂直距離,和透視距離。為了將它們聚合在一起,將尺度因子 τ 關(guān)聯(lián)到每個(gè)距離r,得到歸一化分?jǐn)?shù)

d7be7ddc-dd74-11ed-bfe3-dac502259ad0.png

用S表示所有相應(yīng)的歸一化分?jǐn)?shù)的集合,L1和L2之間的分?jǐn)?shù)為:

d7cc5e52-dd74-11ed-bfe3-dac502259ad0.png

現(xiàn)在有了每個(gè)線(xiàn)對(duì)的唯一分?jǐn)?shù),然后考慮來(lái)自相鄰圖像j和假設(shè)k的所有相鄰3D線(xiàn)候選。一致性分?jǐn)?shù)是通過(guò)對(duì)每個(gè)圖像的最佳分?jǐn)?shù)求和來(lái)定義的:

d7db35c6-dd74-11ed-bfe3-dac502259ad0.png

此時(shí)已為每個(gè)2D線(xiàn)段分配了唯一的3D線(xiàn) (其最佳3D線(xiàn)候選)。然后目標(biāo)是將這些2D線(xiàn)段集成到3D線(xiàn)track中。為此形成一個(gè)圖,其中2D線(xiàn)段是節(jié)點(diǎn),所有初始線(xiàn)匹配都是邊,目標(biāo)是修剪圖中的邊緣,以使連接的2D線(xiàn)段共享相似的3D線(xiàn)段。為此提出了兩種新的線(xiàn)評(píng)分措施,可以應(yīng)對(duì)不同的端點(diǎn)配置和跨圖像的可變的尺度:

重疊分?jǐn)?shù):將L1正交投影到L2上,將投影的端點(diǎn)剪切到L2的端點(diǎn) (如果它們落在L2之外) 以獲得線(xiàn)段d7e882a8-dd74-11ed-bfe3-dac502259ad0.png,并將長(zhǎng)度與閾值τ進(jìn)行比較:

d7f54e48-dd74-11ed-bfe3-dac502259ad0.png

內(nèi)聯(lián)線(xiàn)段距離:L1的端點(diǎn)垂直地未投影到l2。如果它們落在L2之外,將它們剪切到L2的最接近端點(diǎn)。通過(guò)在兩個(gè)方向上執(zhí)行此操作,可以定義兩個(gè)內(nèi)點(diǎn)線(xiàn)段 (參見(jiàn)圖3(c)),并將InnerSeg距離定義為它們端點(diǎn)之間的最大距離。

d8018442-dd74-11ed-bfe3-dac502259ad0.png

然后將以3D計(jì)算的InnerSeg距離轉(zhuǎn)換為上一段中的歸一化分?jǐn)?shù),并將其與2D和3D中的重疊分?jǐn)?shù)以及使用 (5) 的先前分?jǐn)?shù)相結(jié)合。

然后對(duì)于每個(gè)track重新估計(jì)單個(gè)3D線(xiàn)段。使用來(lái)自track中所有節(jié)點(diǎn)的3D分配的端點(diǎn)集,應(yīng)用主成分分析 (PCA),并使用主特征向量和平均3D點(diǎn)來(lái)估計(jì)無(wú)限3D線(xiàn)。然后將所有端點(diǎn)投影在這條無(wú)限線(xiàn)上,以獲得新的3D端點(diǎn)。

線(xiàn)和點(diǎn)聯(lián)合優(yōu)化:

使用其軌跡信息對(duì)獲取的3D線(xiàn)進(jìn)行非線(xiàn)性細(xì)化。直接的方法是對(duì)重投影誤差進(jìn)行幾何細(xì)化。有了2D點(diǎn)線(xiàn)關(guān)聯(lián),可以通過(guò)包含其他結(jié)構(gòu)信息來(lái)制定聯(lián)合優(yōu)化問(wèn)題。最小化的能量可以寫(xiě)如下:

d82005d4-dd74-11ed-bfe3-dac502259ad0.png

分別是點(diǎn)優(yōu)化項(xiàng),線(xiàn)優(yōu)化項(xiàng),線(xiàn)和點(diǎn)聯(lián)合優(yōu)化項(xiàng)。

d839933c-dd74-11ed-bfe3-dac502259ad0.png

eperp是垂直距離,Lk是3D線(xiàn)段的2D投影,lk是2D線(xiàn)段,w∠是1減去投影和觀測(cè)線(xiàn)之間的2D角度的余弦的指數(shù)。

實(shí)驗(yàn):

首先建立了一個(gè)評(píng)估基準(zhǔn)來(lái)量化建圖的質(zhì)量,由于沒(méi)有地面真相 (GT) 3D線(xiàn),因此使用GT網(wǎng)格模型或點(diǎn)云評(píng)估3D線(xiàn)圖。使用以下指標(biāo):

τ (Rτ)處的長(zhǎng)度召回 (以米為單位): 距GT模型 τ mm以?xún)?nèi)的線(xiàn)部分的長(zhǎng)度總和。

τ (Pτ)處的inlier百分比: 距GT模型 τ mm以?xún)?nèi)的track的百分比。

平均支持: 所有線(xiàn)track上的圖像支持和2D線(xiàn)支持的平均數(shù)量。

將論文算法與兩種最先進(jìn)的方法作為基線(xiàn)進(jìn)行比較: L3D++和ELSR,使用兩個(gè)線(xiàn)檢測(cè)器: 傳統(tǒng)的LSD檢測(cè)器和基于學(xué)習(xí)的SOLD2。

對(duì)于ELSR,將輸入轉(zhuǎn)換為VisualSfM 格式,并使用來(lái)自作者的code(僅支持LSD)。

第一個(gè)評(píng)估是在Hypersim數(shù)據(jù)集的前八個(gè)場(chǎng)景上運(yùn)行的,每個(gè)場(chǎng)景由100個(gè)圖像組成。

d84491a6-dd74-11ed-bfe3-dac502259ad0.png

結(jié)果顯示比競(jìng)爭(zhēng)對(duì)手更好或可比的精度的更完整的線(xiàn)圖,同時(shí)也顯示出明顯更高的track質(zhì)量。

d861219a-dd74-11ed-bfe3-dac502259ad0.png

進(jìn)一步評(píng)估了Tanks和Temples數(shù)據(jù)集的train部分。由于SOLD2是針對(duì)室內(nèi)圖像進(jìn)行訓(xùn)練的,因此僅使用LSD。由于所提供的點(diǎn)云被清理為僅專(zhuān)注于主要目標(biāo),因此計(jì)算其邊界框,將其擴(kuò)展1米,并且僅評(píng)估該區(qū)域內(nèi)的線(xiàn)。這樣可以防止錯(cuò)誤地懲罰遠(yuǎn)離主場(chǎng)景的正確線(xiàn)條。

d88de96e-dd74-11ed-bfe3-dac502259ad0.png

論文方法提高了地圖質(zhì)量。圖4顯示了其方法和L3D++之間的定性比較。結(jié)果顯示出更好的完整性,也具有更少的嘈雜的線(xiàn)條,并實(shí)現(xiàn)了對(duì)細(xì)微細(xì)節(jié) (例如在地面上) 的更強(qiáng)大的重建。

d8a0532e-dd74-11ed-bfe3-dac502259ad0.png

為了演示所提出的系統(tǒng)的可伸縮性,還在兩個(gè)大規(guī)模數(shù)據(jù)集上運(yùn)行其方法: Aachen (6,697圖像)和Rome city (16,179圖像) 。圖7顯示了其方法產(chǎn)生具有清晰結(jié)構(gòu)的可靠線(xiàn)圖。

d8c5a57a-dd74-11ed-bfe3-dac502259ad0.png

為了證明構(gòu)建的線(xiàn)圖對(duì)其他應(yīng)用有效果,比如視覺(jué)定位和原本的點(diǎn)云模型的細(xì)化等方面,進(jìn)行了一些實(shí)驗(yàn):

針對(duì)線(xiàn)輔助的視覺(jué)定位:在獲取的3D線(xiàn)圖之上構(gòu)建了一個(gè)混合視覺(jué)定位,其點(diǎn)和線(xiàn)都具有。具體來(lái)說(shuō),首先使用提出的方法構(gòu)建HLoc 中的點(diǎn)圖和線(xiàn)圖。然后分別匹配點(diǎn)和線(xiàn)從3D地圖中的軌跡信息獲取2D-3D對(duì)應(yīng)關(guān)系。

鑒于這些對(duì)應(yīng)關(guān)系,將四個(gè)最小求解器 : P3P,P2P1LL,P1P2LL,P3LL結(jié)合在一個(gè)具有局部?jī)?yōu)化的混合RANSAC框架中以獲得最終的6自由度姿勢(shì)。

結(jié)果在表7,證明了線(xiàn)輔助的定位在室內(nèi)和室外均比單獨(dú)的基線(xiàn)獲得了更好的結(jié)果,從而驗(yàn)證了采用3D線(xiàn)圖進(jìn)行視覺(jué)定位的有效性。

在圖9中,顯示了來(lái)自7 Scenes的樓梯場(chǎng)景的更詳細(xì)的結(jié)果,因?yàn)樗亲罹咛魬?zhàn)性的場(chǎng)景之一。線(xiàn)顯著地有利于重新投影結(jié)構(gòu)的對(duì)準(zhǔn),從46.8提高到71.1的姿態(tài)精度。

d8d998e6-dd74-11ed-bfe3-dac502259ad0.png

d8fd4c50-dd74-11ed-bfe3-dac502259ad0.png

細(xì)化SFM點(diǎn)云:通過(guò)從大致正確的基于點(diǎn)的SFM (例如COLMAP) 構(gòu)建的3D線(xiàn)圖,可以使用3D線(xiàn)及其軌跡信息,通過(guò)點(diǎn)與線(xiàn)的聯(lián)合優(yōu)化來(lái)優(yōu)化輸入的相機(jī)姿勢(shì)。為了驗(yàn)證這一點(diǎn),在Hypersim的前八個(gè)場(chǎng)景上運(yùn)行COLMAP,在其之后構(gòu)建線(xiàn)地圖,并執(zhí)行聯(lián)合BA以?xún)?yōu)化姿態(tài)和內(nèi)參。

d917a9ba-dd74-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2937

    瀏覽量

    109099
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4678

    瀏覽量

    94287
  • 點(diǎn)云
    +關(guān)注

    關(guān)注

    0

    文章

    58

    瀏覽量

    3902

原文標(biāo)題:CVPR 2023|Limap:基于3D line的重建算法

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于ToF的3D活體檢測(cè)算法研究

    什么是活體檢測(cè)?什么又是3D活體檢測(cè)?以及怎么實(shí)現(xiàn)惡劣環(huán)境(如人臉遮擋、惡劣光照等)與人臉多姿態(tài)變化(如側(cè)臉、表情等)應(yīng)用場(chǎng)景下的活體檢測(cè)呢?本文將會(huì)圍繞這些問(wèn)題,介紹數(shù)跡智能的最新成果——基于ToF的3D活體檢測(cè)算法
    發(fā)表于 01-06 07:30

    PYNQ框架下如何快速完成3D數(shù)據(jù)重建

    來(lái)實(shí)現(xiàn)基于這些約束的三維重建的完整管道。  在這個(gè)項(xiàng)目中,作者的目標(biāo)是朝著實(shí)時(shí)生成3D視覺(jué)數(shù)據(jù)邁進(jìn)一步。首先,在CPU上生成3D點(diǎn)云,然后使用Mesh Lab可視化它。由于Mesh Lab不適合實(shí)時(shí)
    發(fā)表于 01-07 17:25

    3D圖像生成算法的原理是什么?

    什么是3D圖形芯片?3D圖像生成算法的原理是什么?
    發(fā)表于 06-04 06:29

    3D分組密碼算法

    針對(duì)3D分組密碼算法的安全性分析,對(duì)該算法抵抗中間相遇攻擊的能力進(jìn)行了評(píng)估?;?b class='flag-5'>3D算法的基本結(jié)構(gòu)及S盒的差分性質(zhì),減少了在構(gòu)造多重集時(shí)所需
    發(fā)表于 01-14 15:08 ?0次下載

    基于改進(jìn)迭代收縮閾值算法的微觀3D重建方法

    迭代收縮閾值算法(ISTA)求解離焦深度恢復(fù)動(dòng)態(tài)優(yōu)化問(wèn)題時(shí),采用固定迭代步長(zhǎng),導(dǎo)致算法收斂效率不佳,使得重建的微觀3D形貌精度不高。為此,提出一種基于加速算子梯度估計(jì)和割線(xiàn)線(xiàn)性搜索的方
    發(fā)表于 01-17 13:39 ?3次下載
    基于改進(jìn)迭代收縮閾值<b class='flag-5'>算法</b>的微觀<b class='flag-5'>3D</b><b class='flag-5'>重建</b>方法

    創(chuàng)想三維:3D掃描儀在3D打印機(jī)上的運(yùn)用

    3D打印機(jī)的工作原理產(chǎn)生好奇。 ? ? ? ?什么是3D掃描? ? ? ? ?3D掃描是分析來(lái)自現(xiàn)實(shí)世界的對(duì)象,收集所有數(shù)據(jù)以便以數(shù)字方式重建其形狀和外觀的過(guò)程。這個(gè)過(guò)程,它可以幫助您
    發(fā)表于 04-19 15:50 ?1025次閱讀

    我國(guó)完成了全球首例寰椎3D打印假體重建手術(shù)

    從中山大學(xué)孫逸仙紀(jì)念醫(yī)院獲悉,該院脊柱外科主任黃霖教授及其團(tuán)隊(duì)完成了全球首例寰椎3D打印假體重建手術(shù)。
    的頭像 發(fā)表于 05-23 11:31 ?2369次閱讀

    阿里3D AI技術(shù)已成功應(yīng)用諸多場(chǎng)景中,可迅速批量生產(chǎn)高質(zhì)量3D模型

    阿里資深算法專(zhuān)家樂(lè)田表示:“3D重建3D機(jī)器學(xué)習(xí)的核心,只有在高質(zhì)量3D數(shù)據(jù)集支持下,工業(yè)級(jí)3D
    發(fā)表于 08-26 13:50 ?1704次閱讀

    3D的感知技術(shù)及實(shí)踐

    測(cè)量表面法向量估計(jì) 幾何測(cè)量平面提取 3D重建從離散點(diǎn)云得到光滑曲面 3D重建ICP點(diǎn)云配準(zhǔn) 3D重建
    的頭像 發(fā)表于 10-23 09:40 ?3428次閱讀
    <b class='flag-5'>3D</b>的感知技術(shù)及實(shí)踐

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團(tuán)隊(duì)研發(fā)了全新3D AI算法,可基于2
    的頭像 發(fā)表于 12-04 15:49 ?3780次閱讀

    探討關(guān)于3D視覺(jué)技術(shù)和3D傳感器

    年內(nèi)得到快速發(fā)展。與深度學(xué)習(xí)算法結(jié)合,在智能制造/機(jī)器人、自動(dòng)駕駛、AR/VR、SLAM、無(wú)人機(jī)、三維重建、人臉識(shí)別等領(lǐng)域取得了優(yōu)異的效果。 3D視覺(jué)主要研究?jī)?nèi)容包括: 3D感知:點(diǎn)云
    的頭像 發(fā)表于 04-01 14:01 ?4836次閱讀
    探討關(guān)于<b class='flag-5'>3D</b>視覺(jué)技術(shù)和<b class='flag-5'>3D</b>傳感器

    音圈模組3D打印助力肌腱和韌帶重建

    音圈模組3D打印助力肌腱和韌帶重建。BellaSeno是一家開(kāi)發(fā)由可吸收聚合物制成的3D打印乳房重建支架的初創(chuàng)公司,該公司現(xiàn)在已經(jīng)開(kāi)始一項(xiàng)計(jì)劃,旨在設(shè)計(jì)和評(píng)估用于肌腱和韌帶
    發(fā)表于 09-01 14:57 ?430次閱讀

    大規(guī)模3D重建的Power Bundle Adjustment

    BA (BA) 是一個(gè)經(jīng)典的計(jì)算機(jī)視覺(jué)問(wèn)題,它構(gòu)成了許多 3D 重建和運(yùn)動(dòng)結(jié)構(gòu) (SfM) 算法的核心組成部分。它指的是通過(guò)最小化非線(xiàn)性重投影誤差來(lái)聯(lián)合估計(jì)相機(jī)參數(shù)和 3D 地標(biāo)位置。
    的頭像 發(fā)表于 12-15 11:20 ?836次閱讀

    基于未知物體進(jìn)行6D追蹤和3D重建的方法

    如今,計(jì)算機(jī)視覺(jué)社區(qū)已經(jīng)廣泛展開(kāi)了對(duì)物體姿態(tài)的 6D 追蹤和 3D 重建。本文中英偉達(dá)提出了同時(shí)對(duì)未知物體進(jìn)行 6D 追蹤和 3D
    的頭像 發(fā)表于 07-03 11:24 ?759次閱讀
    基于未知物體進(jìn)行6<b class='flag-5'>D</b>追蹤和<b class='flag-5'>3D</b><b class='flag-5'>重建</b>的方法

    使用Python從2D圖像進(jìn)行3D重建過(guò)程詳解

    有許多不同的方法和算法可用于從2D圖像執(zhí)行3D重建。選擇的方法取決于諸如輸入圖像的質(zhì)量、攝像機(jī)校準(zhǔn)信息的可用性以及重建的期望準(zhǔn)確性和速度等因
    的頭像 發(fā)表于 12-05 14:07 ?3918次閱讀
    使用Python從2<b class='flag-5'>D</b>圖像進(jìn)行<b class='flag-5'>3D</b><b class='flag-5'>重建</b>過(guò)程詳解
    主站蜘蛛池模板: 免费一级特黄特色大片在线 | 婷婷午夜影院 | 色中文网 | 国产―笫一页―浮力影院xyz | 狠狠狠狠操 | 久久久国产精品网站 | 久久亚洲精品国产亚洲老地址 | ww.久久| caoporn成人免费公开 | 97影院3 | 日日摸人人看97人人澡 | 亚洲成人激情片 | 久青草视频免费视频播放线路1 | 国产美女特级嫩嫩嫩bbb | 三级黄网站 | 免费在线亚洲 | 女人张开双腿让男人桶爽免 | 99久久精品国产免费 | 美女视频黄免费 | 国产福利vr专区精品 | 国产乱理论片在线观看理论 | 午夜100| 狠狠色狠狠干 | 欧美亚洲视频一区 | 久久青草91线频免费观看 | 亚洲一区免费视频 | 亚洲国产精品久久久久婷婷老年 | 日韩美女拍拍免费视频网站 | 久久综合免费视频 | 二区三区在线 | 天天夜夜狠狠 | xxxx 欧美| 欧美三级小视频 | 国产区精品高清在线观看 | you ji z z日本人在线观看 | 99成人在线观看 | 美女网站一区二区三区 | 深夜网站在线 | 美女免费毛片 | mmmxxx69日本 | 国产毛片精品 |