在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用語義線索增強(qiáng)局部特征匹配

3D視覺工坊 ? 來源:3D視覺工坊 ? 2024-10-28 09:57 ? 次閱讀

來源:3D視覺工坊

1. 導(dǎo)讀

視覺匹配是關(guān)鍵計算機(jī)視覺任務(wù)中的關(guān)鍵步驟,包括攝像機(jī)定位、圖像配準(zhǔn)和運(yùn)動結(jié)構(gòu)。目前最有效的匹配關(guān)鍵點的技術(shù)包括使用經(jīng)過學(xué)習(xí)的稀疏或密集匹配器,這需要成對的圖像。這些神經(jīng)網(wǎng)絡(luò)對兩幅圖像的特征有很好的總體理解,但它們經(jīng)常難以匹配不同語義區(qū)域的點。本文提出了一種新的方法,通過將語義推理結(jié)合到現(xiàn)有的描述符中,使用來自基礎(chǔ)視覺模型特征(如DINOv2)的語義線索來增強(qiáng)局部特征匹配。因此,與學(xué)習(xí)匹配器不同,學(xué)習(xí)描述符在推理時不需要圖像對,允許使用相似性搜索進(jìn)行特征緩存和快速匹配。我們提出了六個現(xiàn)有描述符的改編版本,在相機(jī)定位方面的性能平均提高了29%,在兩個現(xiàn)有基準(zhǔn)中與LightGlue和LoFTR等現(xiàn)有匹配器的準(zhǔn)確性相當(dāng)。

2. 引言

視覺匹配關(guān)系對于相機(jī)姿態(tài)估計、同步定位與地圖構(gòu)建(SLAM)以及運(yùn)動恢復(fù)結(jié)構(gòu)(SfM)等重要高級視覺任務(wù)至關(guān)重要。最近,用于在圖像對之間尋找視覺匹配關(guān)系的流程正在發(fā)生變化,更偏向于采用提供不同類型上下文聚合的方法,如學(xué)習(xí)的稀疏匹配器或密集對應(yīng)關(guān)系網(wǎng)絡(luò)。這些方法依賴于從兩個視角收集信息,以調(diào)節(jié)特征,從而更好地預(yù)測對應(yīng)關(guān)系。盡管它們已被證明在下游任務(wù)中能提供更好的結(jié)果,但需要對每對圖像都運(yùn)行一次,因此在諸如SfM流程等大型任務(wù)中使用成本高昂,在這些任務(wù)中,單張圖像將與其他具有相似視點的圖像多次匹配。雖然傳統(tǒng)的單視圖流程可以為單個圖像預(yù)先提取特征,并使用高效的相似性搜索(如互最近鄰MNN),但其表現(xiàn)不如上下文聚合方法。

本文提出了一種方法,通過語義調(diào)節(jié)關(guān)鍵點描述符,以找到更好且更一致的對應(yīng)關(guān)系,同時保持單視圖提取和緩存的優(yōu)勢?;A(chǔ)模型(如DINOv2和SAM)可以提取包含場景中語義概念理解的特征,以補(bǔ)充局部紋理模式。通過凍結(jié)主干網(wǎng)絡(luò)并針對特定任務(wù)訓(xùn)練新層,這些特征可以適應(yīng)于各種任務(wù),例如圖像分類、實例檢索、視頻理解、深度估計、語義分割和語義匹配。為了捕捉場景和對象的意義,DINOv2等模型已經(jīng)發(fā)展出對局部紋理變化具有強(qiáng)大不變性的能力。然而,這些特征的高度不變性在識別圖像之間的像素級匹配時會降低其敏感性。相反,它們可以為區(qū)域之間的一致性提供基礎(chǔ),這可用于過濾視覺上相似但語義上不同的區(qū)域之間的連接。

在本文中,我們提出了一種有效的技術(shù),不是依賴于雙視圖上下文聚合,而是利用來自大型視覺模型(LVM)的高級特征理解,來語義調(diào)節(jié)基于紋理的對應(yīng)關(guān)系。

3. 效果展示

利用語義信息改善視覺匹配關(guān)系。該圖示展示了使用互最近鄰(MNN)對基礎(chǔ)描述符XFeat和我們的方法(采用語義條件,如圖右上角所示)進(jìn)行匹配的過程。正確匹配用綠色表示,錯誤匹配用紅色表示。我們還可以通過使用語義或紋理特征,在圖像中找到給定查詢點(左下角紅點)的128個最接近的匹配項,來評估描述符的可解釋性和一致性。顏色越暖表示相似性越高。請注意,在水槽區(qū)域附近,使用條件特征后的相似性排名有所提升。

4. 主要貢獻(xiàn)

本文的關(guān)鍵技術(shù)貢獻(xiàn)是一種新穎的學(xué)習(xí)方法,用于將語義上下文整合到局部特征中,從而在匹配過程中實現(xiàn)高效的相似性搜索,并顯著提高匹配準(zhǔn)確性。實驗結(jié)果表明,我們的方法在室內(nèi)環(huán)境中的相機(jī)姿態(tài)估計和視覺定位任務(wù)中,顯著提升了各種檢測和描述技術(shù)的性能。

5. 方法

我們闡述了本研究方法的主要概念,詳細(xì)說明了如何將語義感知添加到局部描述符中,以及為訓(xùn)練該描述符所設(shè)計的監(jiān)督方法。整體訓(xùn)練和推理階段的方案如圖2所示。推薦課程:面向三維視覺的Linux嵌入式系統(tǒng)教程[理論+代碼+實戰(zhàn)]。

所提策略首先提取兩組描述符:一組是使用現(xiàn)成的局部特征方法獲得的紋理特征,另一組是來自用于上下文信息的局部視覺模型(LVM)(如本文所選的DINOv2)。為此,我們采用了一種提取傳統(tǒng)、以紋理為中心特征的基礎(chǔ)方法,以及一種提取以語義為中心特征的基礎(chǔ)方法。在基礎(chǔ)提取之后,我們使用自注意力推理模塊對特征進(jìn)行細(xì)化。為了找到匹配的圖像對,我們使用為每幅圖像獨立提取的兩組紋理和語義特征,通過語義條件計算相似度矩陣,以找到相互匹配項。

5fc0004a-9276-11ef-a511-92fbcf53809c.png

在訓(xùn)練過程中,基礎(chǔ)提取器的參數(shù)保持不變(凍結(jié)),我們僅優(yōu)化初始投影和描述符推理的權(quán)重,如圖2所示。我們凍結(jié)權(quán)重是因為每個基礎(chǔ)提取器可能有更適合其的特定訓(xùn)練策略。通過使用凍結(jié)的、現(xiàn)成的提取器,我們可以容納更多方法。DINOv2也根據(jù)[11]進(jìn)行了凍結(jié),該文獻(xiàn)將其用作多個任務(wù)的骨干網(wǎng)絡(luò)。

6. 實驗結(jié)果

定量配準(zhǔn)結(jié)果如表1和表2所示。表1中包含了雙視圖上下文聚合方法,如Light-Glue和LoFTR,以及其他也利用語義信息的描述符,如DeDoDe-G和SFD2。值得注意的是,即使僅進(jìn)行單視圖提取,SuperPoint與語義條件相結(jié)合也能與LightGlue(沒有任何配對視圖感知)相比產(chǎn)生具有競爭力的結(jié)果。表2描述了我們設(shè)計的利用語義信息提高現(xiàn)有描述符匹配能力的策略。我們可以注意到,當(dāng)與我們所提出的語義條件相結(jié)合時,所有基線均取得了顯著改進(jìn)。盡管其中許多方法(如DeDoDe、SFD2、ALIKE和ALIKED)僅使用MegaDepth數(shù)據(jù)集中的室外圖像進(jìn)行訓(xùn)練,但在不重新訓(xùn)練特征提取器或DINOv2骨干網(wǎng)絡(luò)的情況下,我們?nèi)钥蓪⑺鼈兊氖覂?nèi)位姿估計結(jié)果提高至少24%。這一結(jié)果表明,所提取的視覺線索本身并不優(yōu)于這些描述符的原始版本,但通過語義信息的輔助,其條件得到了改善。

5fefb1aa-9276-11ef-a511-92fbcf53809c.png

視覺定位基準(zhǔn)測試結(jié)果如表3所示。一個有趣的觀察結(jié)果是,我們的方法能夠在多種情況下減少XFeat的錯誤。對于SuperPoint,我們的方法未能提供有意義的改進(jìn)。我們推測,由于XFeat的骨干網(wǎng)絡(luò)較小,它提供的特征更簡潔、冗余更少,因此不易過擬合,且能最大程度地利用語義信息。在考慮不同閾值內(nèi)定位相機(jī)的百分比時,我們實現(xiàn)了最高的正確定位相機(jī)平均百分比。從更嚴(yán)格的閾值(1?、1厘米至500厘米、10?)來看,LightGlue是黃金標(biāo)準(zhǔn)但匹配成本高昂,正確定位了66.97%的相機(jī)。緊隨其后的是我們的方法(以SuperPoint為基礎(chǔ)紋理檢測器):66.95%,SuperPoint:66.88%,XFeat:66.36%,DeDoDe-G:64.44%。這表明,語義信息可以增加模糊區(qū)域的對應(yīng)點數(shù)量,如圖3所示。

600e697e-9276-11ef-a511-92fbcf53809c.png

7. 總結(jié) & 未來工作

本研究工作引入了一種基于學(xué)習(xí)的視覺特征描述技術(shù),該技術(shù)能夠利用圖像中存在的語義線索。我們設(shè)計了一個執(zhí)行信息聚合的網(wǎng)絡(luò),該網(wǎng)絡(luò)利用語義特征來細(xì)化和調(diào)整現(xiàn)成的描述符,從而提高室內(nèi)視覺匹配的準(zhǔn)確性。在相機(jī)位姿估計方面,我們的方法性能優(yōu)于現(xiàn)有的探索語義線索的最先進(jìn)模型,并且即使與最近的學(xué)習(xí)匹配器(如LightGlue)相比也頗具競爭力,而我們僅使用單幅圖像進(jìn)行特征提取,并使用最近鄰搜索進(jìn)行匹配。通過大量實驗,我們證明了我們的方法可以將六種不同基礎(chǔ)描述符的位姿估計結(jié)果平均提高25%。改進(jìn)后的描述符可以在大規(guī)模結(jié)構(gòu)從運(yùn)動恢復(fù)(SfM)重建中使用單視圖進(jìn)行圖像提取,因為最近鄰(MNN)匹配比數(shù)千對圖像運(yùn)行學(xué)習(xí)匹配器要快得多。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4779

    瀏覽量

    101171
  • 相機(jī)
    +關(guān)注

    關(guān)注

    4

    文章

    1367

    瀏覽量

    53914
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1700

    瀏覽量

    46127
  • 視覺模型
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6930

原文標(biāo)題:ACCV'24開源 | 完虐LightGlue!使用語義線索增強(qiáng)局部特征匹配!定位精度暴漲29%!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于OWL屬性特征語義檢索研究

    【來源】:《電子設(shè)計工程》2010年02期【摘要】:在文獻(xiàn)檢索中,概念的語義相似度計算直接影響查準(zhǔn)率和查全率指標(biāo)。將本體描述語言O(shè)WL(Web Ontology Language)的屬性特征有機(jī)結(jié)合
    發(fā)表于 04-24 09:48

    一種基于SIFT描述子的特征匹配新算法

    為了克服傳統(tǒng)的局部特征匹配算法對噪聲和圖像灰度非線性變換敏感的不足,提出了基于SIFT(Scale Invariant Feature Transform)描述算子的特征
    發(fā)表于 12-07 11:03 ?29次下載

    基于改進(jìn)局部不變特征的興趣點匹配

    該文提出了一種適用于目標(biāo)跟蹤的局部特征點檢測與匹配方法,在尺度不變特征(Scale Invariant FeatureTransform, SIFT)算法基礎(chǔ)上進(jìn)行了多方面的改進(jìn)。在高
    發(fā)表于 02-10 14:21 ?21次下載

    基于OWL屬性特征語義檢索研究

    在文獻(xiàn)檢索中,概念的語義相似度計算直接影響查準(zhǔn)率和查全率指標(biāo)。將本體描述語言O(shè)WL(Web Ontology Language)的屬性特征有機(jī)結(jié)合到語義檢索模型中,設(shè)計本體內(nèi)實體間匹配
    發(fā)表于 02-11 14:01 ?4次下載

    基于局部特征和整體特征融合的面部表情識別

    提出融合局部特征和整體特征的方法實現(xiàn)人臉面部表情特征的提取。在每一個人臉圖像上測量10個距離,把這些距離標(biāo)準(zhǔn)化后作為局部表情
    發(fā)表于 06-22 15:24 ?21次下載

    基于局部特征匹配的目標(biāo)跟蹤研究

    針對目標(biāo)跟蹤中的特征提取和匹配問題進(jìn)行分析,提出了一種基于局部特征匹配的目標(biāo)跟蹤方法,該算法基于Shape Context進(jìn)行
    發(fā)表于 12-06 15:15 ?32次下載
    基于<b class='flag-5'>局部</b><b class='flag-5'>特征</b><b class='flag-5'>匹配</b>的目標(biāo)跟蹤研究

    基于SVM的局部潛在語義分析算法研究

    。該算法在語義分析使用矩陣的奇異值分解過程中引入不同類別信息,分析特征詞的局部特征,使用支持向量機(jī)分類器計算文本對類別的相關(guān)度參數(shù),并應(yīng)用于局部
    發(fā)表于 12-06 10:05 ?0次下載
    基于SVM的<b class='flag-5'>局部</b>潛在<b class='flag-5'>語義</b>分析算法研究

    基于紋理特征匹配的快速目標(biāo)分割方法

    目標(biāo)分割方法是工業(yè)自動化、在線產(chǎn)品檢驗、生產(chǎn)過程控制等領(lǐng)域的關(guān)鍵技術(shù)之一。基于特征匹配策略,研究了如何增強(qiáng)紋理特征的區(qū)分能力以及如何快速分割特定的目標(biāo)。在紋理
    發(fā)表于 12-07 16:48 ?0次下載
    基于紋理<b class='flag-5'>特征</b><b class='flag-5'>匹配</b>的快速目標(biāo)分割方法

    基于行為特征語義工作流修正算法

    檢索工作流.針對這種情況。提出了一種改進(jìn)方案基于stream行為特征修正語義工作流.使用任務(wù)緊鄰關(guān)系集表達(dá)stream的行為特征.對于檢索語義工作流中的每個與變更請求不一致的strea
    發(fā)表于 12-14 15:50 ?0次下載
    基于行為<b class='flag-5'>特征</b>的<b class='flag-5'>語義</b>工作流修正算法

    基于局部輪廓特征的類圓對象識別方法

    之間的夾角、片段的長度和彎曲強(qiáng)度,定義2AS的語義模型;接著,依據(jù)2AS之間的相對位置關(guān)系定義2AS相互關(guān)系模型,分別描述對象的2AS特征和2AS之間的相互關(guān)系;然后,使用對象模板的2AS的語義模型與測試圖像中的2AS
    發(fā)表于 12-19 15:25 ?1次下載
    基于<b class='flag-5'>局部</b>輪廓<b class='flag-5'>特征</b>的類圓對象識別方法

    如何使用語義感知來進(jìn)行圖像美學(xué)質(zhì)量評估的方法

    當(dāng)前圖像美學(xué)質(zhì)量評估的研究主要基于圖像的視覺內(nèi)容來給出評價結(jié)果,忽視了美感是人的認(rèn)知活動的事實,在評價時沒有考慮用戶對圖像語義信息的理解。為了解決這一問題,提出了一種基于語義感知的圖像美學(xué)質(zhì)量評估
    發(fā)表于 11-16 15:37 ?11次下載
    如何使<b class='flag-5'>用語義</b>感知來進(jìn)行圖像美學(xué)質(zhì)量評估的方法

    RGPNET:復(fù)雜環(huán)境下實時通用語義分割網(wǎng)絡(luò)

    本文介紹的論文提出了一種新的實時通用語義分割體系結(jié)構(gòu)RGPNet,在復(fù)雜環(huán)境下取得了顯著的性能提升。作者: Tom Hardy首發(fā):3D視覺工坊...
    的頭像 發(fā)表于 12-10 19:15 ?704次閱讀

    借助局部實體特征的事件觸發(fā)詞抽取方法

    建模。利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)抽取局部特征的特性,從眾多實體中定位有助于觸發(fā)詞識別的局部重要實體,采用注意力機(jī)制提高其權(quán)重,同時利用有效非核心實體的語義排除干擾實體,從而借助重要實體
    發(fā)表于 05-26 15:24 ?2次下載

    深度學(xué)習(xí)—基于軍事知識圖譜的作戰(zhàn)預(yù)案語義匹配方法研究

    特征映射,構(gòu)建預(yù)案語義特征標(biāo)注,實現(xiàn)作戰(zhàn)預(yù)案隱藏知識的顯式定義;設(shè)計了作戰(zhàn)預(yù)案語義特征抽取與相似性計算算法,解決基于索引或關(guān)鍵字等語用層次
    發(fā)表于 11-11 11:08 ?1790次閱讀
    深度學(xué)習(xí)—基于軍事知識圖譜的作戰(zhàn)預(yù)案<b class='flag-5'>語義</b><b class='flag-5'>匹配</b>方法研究

    基于RGM的魯棒且通用的特征匹配

    在一對圖像中尋找匹配的像素是具有各種應(yīng)用的基本計算機(jī)視覺任務(wù)。由于光流估計和局部特征匹配等不同任務(wù)的特定要求,以前的工作主要分為稠密匹配和稀
    的頭像 發(fā)表于 11-27 11:32 ?607次閱讀
    基于RGM的魯棒且通用的<b class='flag-5'>特征</b><b class='flag-5'>匹配</b>
    主站蜘蛛池模板: 日本aaaa视频| 天天干人人干 | 日本免费一区二区视频 | 日日夜夜天天干干 | 色噜噜狠狠成人中文小说 | 天天干天天干天天天天天天爽 | 欧美精品aaa久久久影院 | 久久精品国产99久久72 | 色www永久免费 | 夜干夜夜 | 久久国产乱子伦精品免费看 | 欧美干色 | 久久美女精品国产精品亚洲 | 另类性欧美喷潮videofree | 激情五月综合综合久久69 | 免费一级黄色录像 | 国产偷啪视频一区 | 亚洲狠狠色丁香婷婷综合 | 国产欧美日韩综合精品一区二区 | 国产麻豆成人传媒免费观看 | 国产特黄| 中文字幕在线观看亚洲 | 国产免费午夜 | 色婷婷久久 | www.夜| 亚洲一卡2卡3卡4卡5卡乱码 | 成人a大片高清在线观看 | 丁香五月缴情综合网 | 日本在线网址 | 伊人久久精品成人网 | 国产五月婷婷 | 四虎最新紧急入口 | 日本电影在线观看黄 | 国产精品福利久久2020 | 夜夜爽66| 色天天综合色天天碰 | 四虎综合九九色九九综合色 | 免播放器av少妇影院 | 日本黄色免费 | 6080伦理久久精品亚洲 | 欧美在线播放 |