在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于深度注意力感知特征的視覺定位框架

3D視覺工坊 ? 來源:3D視覺工坊 ? 作者:秦嶺北麓小丹童 ? 2022-11-15 09:54 ? 次閱讀

0.筆者個人體會:

這個工作來自于Baidu ADT部門,是該團(tuán)隊(duì)繼L3-Net之后的在自動駕駛領(lǐng)域內(nèi)關(guān)于定位的又一力作,其利用圖像數(shù)據(jù)取得了與基于Lidar的方法相當(dāng)?shù)亩ㄎ痪取?其突出的優(yōu)勢在于:

1.該方法達(dá)到了極高的精度。即使是在訓(xùn)練以及建圖是用到了激光雷達(dá)(點(diǎn)云數(shù)據(jù)),但在實(shí)際線上使用時,只用了圖像數(shù)據(jù)。在這種設(shè)置下,本方法大大節(jié)省了實(shí)際使用時的成本,并達(dá)到了厘米級別的精度。

2.該方法繼承了L3-Net在求解位姿時的做法,即基于Cost volume求解位姿修正量。這種設(shè)置可以滿足端到端訓(xùn)練的需求,并在某種程度上等價于對候選的位姿進(jìn)行遍歷對比,求解了一定范圍內(nèi)的最優(yōu)解。

3.該方法的時間效率可控。隨著選擇較少的關(guān)鍵點(diǎn)數(shù)量,該方法可以達(dá)到極高的時間效率。

但此方法也有一定的不足,即該方法嚴(yán)重依賴于給定初始預(yù)測位姿的精度?;贑ost volume的定位本質(zhì)上是在候選位姿集合上做一個遍歷,選擇其中的最優(yōu)解。

但如果給定的初始預(yù)測位姿精度不夠時,所有候選位姿的精度都有限,即無法得到一個精度較高的定位結(jié)果。這個問題可能為實(shí)際使用帶來一定的局限性。

1、論文相關(guān)內(nèi)容介紹:

摘要:針對自動駕駛應(yīng)用領(lǐng)域,本文提出了一種基于深度注意力感知特征的視覺定位框架,該框架可達(dá)到厘米級的定位精度。傳統(tǒng)的視覺定位方法依賴于手工制作的特征或道路上的人造物體。然而,它們要么容易由于嚴(yán)重的外觀或光照變化而導(dǎo)致不穩(wěn)定的匹配,要么太過稀少,無法在具有挑戰(zhàn)性的場景中提供穩(wěn)定和魯棒的定位結(jié)果。

在這項(xiàng)工作中,本文利用深度注意力機(jī)制,通過一種新的端到端深度神經(jīng)網(wǎng)絡(luò)來尋找場景中有利于長距離匹配的顯著的、獨(dú)特的和穩(wěn)定的特征。此外,此學(xué)習(xí)的特征描述符被證明有能力建立魯棒的匹配,因此成功地估計出最優(yōu)的、具有高精度的相機(jī)姿態(tài)。

本文使用新收集的具有高質(zhì)量的地面真實(shí)軌跡和傳感器之間硬件同步的數(shù)據(jù)集全面驗(yàn)證了本方法的有效性。

結(jié)果表明,與基于lidar的定位解決方案相比,在各種具有挑戰(zhàn)性的環(huán)境下,本文的方法獲得了具有競爭力的定位精度,這是一種潛在的低成本自動駕駛定位解決方案。

主要貢獻(xiàn):

1.提出一種新穎的自動駕駛視覺定位框架,在各種具有挑戰(zhàn)性的照明條件下達(dá)到了厘米級定位精度。

2.通過一種新的端到端深度神經(jīng)網(wǎng)絡(luò)使用了注意力機(jī)制和深層特征,這有效的提高了算法性能。

3.使用具有高質(zhì)量的地面真實(shí)軌跡和硬件(相機(jī)、激光雷達(dá)、IMU)同步的新數(shù)據(jù)集對所提出的方法進(jìn)行嚴(yán)格測試,并驗(yàn)證了其性能。

方法介紹:

該系統(tǒng)分為三個階段:(1)網(wǎng)絡(luò)訓(xùn)練;(2)地圖生成;(3)在線定位。地圖生成和在線定位都可以看作是經(jīng)過訓(xùn)練的網(wǎng)絡(luò)的應(yīng)用。提出的網(wǎng)絡(luò)架構(gòu)如圖1所示。

ff3ae3fa-6470-11ed-8abf-dac502259ad0.png

Fig1:基于端到端深度注意力感知特征的視覺定位框架在三個不同階段的網(wǎng)絡(luò)架構(gòu)和系統(tǒng)工作流:a)訓(xùn)練;bb)地圖生成;c)在線定位。

一、系統(tǒng)工作流

1. 訓(xùn)練:

訓(xùn)練階段包括三個模塊,LFE, AKS和WFM。首先,給定一個預(yù)測位姿,并選取其在歐氏距離內(nèi)最接近的地圖圖像;接下來,LFE模塊分別從在線圖像和地圖圖像中提取稠密特征,并從地圖圖像中提取相應(yīng)的注意力熱圖。AKS模塊根據(jù)熱圖的注意力得分,從地圖圖像中選擇具備好的特征的點(diǎn)作為關(guān)鍵點(diǎn)。

然后通過激光雷達(dá)點(diǎn)云投影得到它們的相應(yīng)的三維坐標(biāo)。最后,以這些三維關(guān)鍵點(diǎn)和特征描述符作為輸入,WFM模塊在一個三維代價卷中搜索,尋找最優(yōu)位姿偏移量,并將最優(yōu)位姿偏移量與地面真實(shí)位姿進(jìn)行比較,構(gòu)造損失函數(shù)。

2.地圖生成:

訓(xùn)練結(jié)束后,使用如圖2所示的網(wǎng)絡(luò)的部分子網(wǎng)絡(luò),可以完成地圖生成。給定激光雷達(dá)掃描和車輛真實(shí)位姿,可以很容易地獲得激光雷達(dá)點(diǎn)的全局三維坐標(biāo)。注意,激光雷達(dá)傳感器和車輛位姿真值僅用于建圖。首先,在給定車輛真實(shí)位姿的情況下,通過將三維激光雷達(dá)點(diǎn)投影到圖像上,將地圖圖像像素與全局三維坐標(biāo)關(guān)聯(lián)起來。

然后利用LFE網(wǎng)絡(luò)求解地圖圖像的注意力熱圖和不同分辨率的特征圖。接下來,在AKS模塊的金字塔中為不同的分辨率選擇一組關(guān)鍵點(diǎn)??傮w而言,本方法將關(guān)鍵點(diǎn)及其特征描述符,以及其3D坐標(biāo)保存到地圖數(shù)據(jù)庫中。

3.在線定位:

在定位階段,利用LFE網(wǎng)絡(luò)再次估計在線圖像中不同分辨率的特征圖。本方法從給定的相機(jī)的預(yù)測位姿的最近的地圖圖像中收集關(guān)鍵點(diǎn)及其特征描述符和全局3D坐標(biāo)。

然后,在WFM模塊中,構(gòu)建的成本卷中給出了候選位姿,而這些關(guān)鍵點(diǎn)則被利用這些候選位姿投影到在線圖像上。通過三個不同分辨率的特征匹配網(wǎng)絡(luò)級聯(lián)實(shí)現(xiàn)由粗到細(xì)的位姿估計。

ff744190-6470-11ed-8abf-dac502259ad0.png

Fig.2 三個主要模塊的網(wǎng)絡(luò)結(jié)構(gòu)說明:(a)局部特征學(xué)習(xí)(LFE);(b)關(guān)鍵點(diǎn)選取(AKS);(c)加權(quán)特征匹配(WFM)。

二、局部特征學(xué)習(xí)

在所有三個不同的階段都使用相同的LFE模塊。本文采用了一種類似于特征金字塔網(wǎng)絡(luò)(FPN)的網(wǎng)絡(luò)架構(gòu),如圖2(a)所示。通過將編碼器和解碼器中相同大小的特征圖級聯(lián)起來,F(xiàn)PN可以在所有尺度上增強(qiáng)高級語義特征,從而獲得更強(qiáng)大的特征提取器。

在本方法的編碼器中有一個FPN,其由17層網(wǎng)絡(luò)組成,可以分解為4個階段。第一階段由兩個二維卷積層組成,其中括號中的數(shù)字分別是通道、核和步幅大小。從第二階段開始,每個階段包括一個二維卷積層和兩個殘差塊。每個殘差塊由兩個3 × 3卷積層組成。

在解碼器中,經(jīng)過二維卷積層后,上采樣層被應(yīng)用于從更粗糙但語義更強(qiáng)的特征中產(chǎn)生更高分辨率的特征。來自編碼器的相同分辨率的特征被通過按元素平均來合并以增強(qiáng)解碼器中的這些特征。解碼器的輸出是原始圖像的不同分辨率的特征圖。再通過如圖2右下角所示的兩個不同的網(wǎng)絡(luò)頭,分別用于提取特征描述符和估計注意力熱圖

。特征描述符表示為d維向量,能夠在不同光照或視點(diǎn)條件引起的嚴(yán)重外觀變化下進(jìn)行魯棒匹配。該熱圖由[0-1]標(biāo)量組成,這些標(biāo)量在后文的基于注意力的關(guān)鍵點(diǎn)選擇和特征匹配模塊中用作相關(guān)性權(quán)重。更具體地說,

ff9f2d1a-6470-11ed-8abf-dac502259ad0.png

是描述符學(xué)習(xí)模塊輸出, 其中s∈2,4,8是尺度因子,D = 8為特征維度。注意力熱圖輸出是ffb4f73a-6470-11ed-8abf-dac502259ad0.png

三、關(guān)鍵點(diǎn)選取

在研究過程中,了解到不同的關(guān)鍵點(diǎn)選擇策略對系統(tǒng)的整體性能有相當(dāng)大的影響。AKS模塊分為兩個階段:訓(xùn)練和地圖生成。當(dāng)在解決一個幾何問題時,眾所周知,相較于聚集在一起的關(guān)鍵點(diǎn),在幾何空間中幾乎均勻分布的一組關(guān)鍵點(diǎn)是至關(guān)重要的。

本方法發(fā)現(xiàn),提出的方法優(yōu)于其他更自然的選擇,例如top-K。本方法考慮了兩種選擇策略,即最遠(yuǎn)點(diǎn)采樣(FPS)算法及其變體,加權(quán)FPS (WFPS)算法(如圖2(b)所示)。給定一組已選點(diǎn)S和未選點(diǎn)Q,如果試圖迭代地從Q中選擇一個新點(diǎn), FPS算法會計算

ffcff2ec-6470-11ed-8abf-dac502259ad0.png

在本方法的WFPS算法中,取而代之的是計算

ffe3f4b8-6470-11ed-8abf-dac502259ad0.png

在訓(xùn)練階段,本方法的目標(biāo)是統(tǒng)一學(xué)習(xí)所有的候選者的注意力分?jǐn)?shù),因此必須要有一個有效的隨機(jī)選擇策略。為此,首先隨機(jī)抽取K個候選點(diǎn),然后,本方法應(yīng)用FPS算法來選擇其中的關(guān)鍵點(diǎn)。 在地圖生成階段,本方法通過有效地結(jié)合學(xué)習(xí)的注意力權(quán)重實(shí)現(xiàn)了一個能夠選擇好的關(guān)鍵點(diǎn)的算法。

本方法再次隨機(jī)選擇K個候選點(diǎn),然后在地圖生成過程中使用WFPS,并以熱圖為采樣概率來使用稠密采樣。 為了將二維特征描述符與三維坐標(biāo)相關(guān)聯(lián),本方法將3D激光雷達(dá)點(diǎn)投射到圖像上。考慮到并非所有的圖像像素都與LiDAR點(diǎn)相關(guān)聯(lián),本方法只考慮與已知三維坐標(biāo)有關(guān)聯(lián)的稀疏2D像素作為候選點(diǎn),從中選擇適合匹配的關(guān)鍵點(diǎn)。

四、加權(quán)特征匹配

傳統(tǒng)方法通常利用RANSAC框架中的PnP求解器來求解給定2D-3D對應(yīng)的攝像機(jī)位姿估計問題。不幸的是,這些包括異常值拒絕步驟的匹配方法是不可微的,從而阻礙了他們在訓(xùn)練階段的反向傳播。

L3-Net引入了一種特征匹配和位姿估計方法,該方法利用可微分的三維代價卷來評估給定的位姿偏移量下,來自在線圖像和地圖圖像的對應(yīng)特征描述符對的匹配代價。 下面,本方法對原來的L3-Net設(shè)計進(jìn)行改進(jìn),提出將注意力權(quán)重納入解決方案,并使其有效訓(xùn)練。網(wǎng)絡(luò)架構(gòu)如圖2(c)所示。

代價卷:與L3-Net的實(shí)現(xiàn)類似,本方法建立了一個

fff71da4-6470-11ed-8abf-dac502259ad0.png

的代價卷,其中00104b6c-6471-11ed-8abf-dac502259ad0.png為所選關(guān)鍵點(diǎn)的個數(shù),00225bea-6471-11ed-8abf-dac502259ad0.png00332178-6471-11ed-8abf-dac502259ad0.png為每個維度的網(wǎng)格大小。具體來說,給定預(yù)測位姿作為代價卷中心,將其相鄰空間均勻劃分為一個三維網(wǎng)格,記為004b6d14-6471-11ed-8abf-dac502259ad0.png

0063e97a-6471-11ed-8abf-dac502259ad0.png 。

該代價卷中的節(jié)點(diǎn)是候選位姿,本方法希望從中評估其對應(yīng)的特征對并找到最優(yōu)解。具體而言,利用每個候選位姿將地圖圖像中選定的三維關(guān)鍵點(diǎn)投影到在線圖像上,通過對在線圖像特征圖進(jìn)行雙線性插值,計算出對應(yīng)的局部特征描述符。通過計算在線和地圖圖像的兩個描述符之間的元素的總的L2距離,本方法實(shí)現(xiàn)了一個單維代價標(biāo)量。然后,由一個以Conv3D(8,1,1)-Conv3D(8,1,1)-Conv3D(1,1,1)為內(nèi)核的三層三維CNN對代價卷進(jìn)行處理,結(jié)果記為007ac5be-6471-11ed-8abf-dac502259ad0.png

邊緣化:通過應(yīng)用平均操作,在關(guān)鍵點(diǎn)維度上將匹配代價卷0086ab2c-6471-11ed-8abf-dac502259ad0.png邊緣化為0098953a-6471-11ed-8abf-dac502259ad0.png

在LFE模塊的熱圖學(xué)習(xí)訓(xùn)練中,成功的關(guān)鍵在于如何有效地結(jié)合所有關(guān)鍵點(diǎn)特征的注意力權(quán)重。與沒有注意力權(quán)重的平均相比,最直接的解決方案是使用加權(quán)平均操作取代直接平均。

本方法在訓(xùn)練時使用加權(quán)平均,在在線定位化階段使用直接平均。 其余部分估計00a78f86-6471-11ed-8abf-dac502259ad0.png的最優(yōu)偏移量00bd8098-6471-11ed-8abf-dac502259ad0.png及其概率分布00cf8c5c-6471-11ed-8abf-dac502259ad0.png與圖2 (c)所示的L3-Net的設(shè)計相同。

五、損失函數(shù)設(shè)計

1)絕對損失:以估計偏移量00e275ba-6471-11ed-8abf-dac502259ad0.png與真值00f8a7a4-6471-11ed-8abf-dac502259ad0.png之間的絕對距離作為第一個損失: 010b8d7e-6471-11ed-8abf-dac502259ad0.png

其中α是一個平衡因子。

2)聚集損失:除上述絕對損失外,概率分布011c6da6-6471-11ed-8abf-dac502259ad0.png對估計的魯棒性也有相當(dāng)大的影響。因此,取

013003fc-6471-11ed-8abf-dac502259ad0.png

其中014291a2-6471-11ed-8abf-dac502259ad0.png。

從而第二個損失函數(shù)定義為01563702-6471-11ed-8abf-dac502259ad0.png016741fa-6471-11ed-8abf-dac502259ad0.png


3)相似損失:除幾何約束外,對應(yīng)的2D-3D關(guān)鍵點(diǎn)該有相似的描述符。因此,本方法將第三個損失定義為:

01787d3a-6471-11ed-8abf-dac502259ad0.png

其中,為關(guān)鍵點(diǎn)P的三維CNN的輸出,當(dāng)使用真值位姿將地圖中的關(guān)鍵點(diǎn)投影到在線圖像上時,在在線圖像中找到對應(yīng)的點(diǎn),并計算匹配點(diǎn)對之間的描述符的距離。018b992e-6471-11ed-8abf-dac502259ad0.png是一個常數(shù)。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ADT
    ADT
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    9502
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    968

    文章

    4029

    瀏覽量

    190431
  • 自動駕駛
    +關(guān)注

    關(guān)注

    785

    文章

    13933

    瀏覽量

    167027

原文標(biāo)題:視覺定位在自動駕駛領(lǐng)域可否比肩基于Lidar的方法?

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一種新型極性轉(zhuǎn)換異質(zhì)結(jié)光電晶體管集成陣列

    近年來三維信息感知在機(jī)器視覺、深空成像以及醫(yī)療診斷方面具備廣泛的應(yīng)用前景,包含物體深度信息的三維信息感知能夠更加全面地感知物體的形態(tài)與光學(xué)
    的頭像 發(fā)表于 01-14 14:15 ?158次閱讀
    <b class='flag-5'>一種</b>新型極性轉(zhuǎn)換異質(zhì)結(jié)光電晶體管集成陣列

    一種新的通用視覺主干模型Vision Mamba

    核,使其計算量為線性,但也由此而面臨著窗口化局部感受野的缺陷,使其在全局場景感知和場景語義理解上之力;Transformer通過全局的注意力計算,使其具有長上下文的全局感知能力,但其二次方復(fù)雜度的計算量使得在算
    的頭像 發(fā)表于 01-06 09:55 ?156次閱讀
    <b class='flag-5'>一種</b>新的通用<b class='flag-5'>視覺</b>主干模型Vision Mamba

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+兩本互為支持的書

    書則是介紹視覺處理的執(zhí)行體,該執(zhí)行體力圖以更人性化的方式來執(zhí)行和處理問題,即以具身的形式,而非傳統(tǒng)的機(jī)械式的生硬形式來充當(dāng)執(zhí)行體。 也就是說是以人體特征的機(jī)器人的形式來感知周圍環(huán)境
    發(fā)表于 01-01 15:50

    激光錫焊視覺定位技術(shù)的應(yīng)用場景

    本文主要介紹視覺定位概念、一種基于視覺定位的激光焊接系統(tǒng)的結(jié)構(gòu)和組成,及該焊接系統(tǒng)在某些特定場景的具體應(yīng)用。
    的頭像 發(fā)表于 12-13 09:10 ?201次閱讀
    激光錫焊<b class='flag-5'>視覺</b><b class='flag-5'>定位</b>技術(shù)的應(yīng)用場景

    一種面向飛行試驗(yàn)的數(shù)據(jù)融合框架

    天地氣動數(shù)據(jù)致性,針對某外形飛行試驗(yàn)數(shù)據(jù)開展了典型對象的天地氣動數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機(jī)森林方法,本文提出了一種面向飛行試驗(yàn)的數(shù)據(jù)融合框架,通過引入地面風(fēng)洞試驗(yàn)氣動數(shù)據(jù),實(shí)現(xiàn)了對復(fù)雜輸入?yún)?shù)的
    的頭像 發(fā)表于 11-27 11:34 ?332次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗(yàn)的數(shù)據(jù)融合<b class='flag-5'>框架</b>

    基于視覺語言模型的導(dǎo)航框架VLMnav

    本文提出了一種視覺語言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在步中直接選擇動作
    的頭像 發(fā)表于 11-22 09:42 ?263次閱讀

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中的故障檢測對其可維護(hù)性和安全性至關(guān)重要。然而,系統(tǒng)監(jiān)測變量往往具有復(fù)雜的聯(lián)系,很難表征它們的關(guān)系并提取有效的特征。本文開發(fā)了一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)(HGCAN),以提高復(fù)雜
    的頭像 發(fā)表于 11-12 09:52 ?387次閱讀
    <b class='flag-5'>一種</b>基于因果路徑的層次圖卷積<b class='flag-5'>注意力</b>網(wǎng)絡(luò)

    一種創(chuàng)新的動態(tài)軌跡預(yù)測方法

    本文提出了一種動態(tài)軌跡預(yù)測方法,通過結(jié)合歷史幀和歷史預(yù)測結(jié)果來提高預(yù)測的穩(wěn)定性和準(zhǔn)確性。它引入了歷史預(yù)測注意力模塊,以編碼連續(xù)預(yù)測之間的動態(tài)關(guān)系,并通過三重因子注意力模塊實(shí)現(xiàn)了最先進(jìn)的性能。本方法能夠生成準(zhǔn)確且穩(wěn)定的未來軌跡,這
    的頭像 發(fā)表于 10-28 14:34 ?512次閱讀
    <b class='flag-5'>一種</b>創(chuàng)新的動態(tài)軌跡預(yù)測方法

    一種將NeRFs應(yīng)用于視覺定位任務(wù)的新方法

    視覺定位旨在估計在已知環(huán)境中捕獲的給定圖像的旋轉(zhuǎn)和位置,大致可以分為絕對姿態(tài)回歸(APR),場景坐標(biāo)回歸(SCR)和分層方法(HM)。
    的頭像 發(fā)表于 10-28 10:03 ?272次閱讀
    <b class='flag-5'>一種</b>將NeRFs應(yīng)用于<b class='flag-5'>視覺</b><b class='flag-5'>定位</b>任務(wù)的新方法

    一種完全分布式的點(diǎn)線協(xié)同視覺慣性導(dǎo)航系統(tǒng)

    在本文中,我們提出了一種完全分布式的點(diǎn)線協(xié)同視覺慣性導(dǎo)航系統(tǒng)。我們通過蒙特卡羅模擬和真實(shí)環(huán)境數(shù)據(jù)集,在稠密特征或稀疏特征環(huán)境下將所提出的算法與其他四
    的頭像 發(fā)表于 09-30 14:45 ?517次閱讀
    <b class='flag-5'>一種</b>完全分布式的點(diǎn)線協(xié)同<b class='flag-5'>視覺</b>慣性導(dǎo)航系統(tǒng)

    2024 年 19 最佳大型語言模型

    ,當(dāng)時篇題為“通過聯(lián)合學(xué)習(xí)對齊和翻譯的神經(jīng)機(jī)器翻譯”的研究論文中引入了注意力機(jī)制(一種旨在模仿人類認(rèn)知注意力的機(jī)器學(xué)習(xí)技術(shù))。2017年,另
    的頭像 發(fā)表于 08-30 12:56 ?615次閱讀
    2024 年 19 <b class='flag-5'>種</b>最佳大型語言模型

    基于深度學(xué)習(xí)的鳥類聲音識別系統(tǒng)

    的泛化能力,然后提出了個輕量級的鳥類聲音識別模型,以MobileNetV3為骨干構(gòu)建了一種輕量級的特征提取和識別網(wǎng)絡(luò)。通過調(diào)整模型中的深度可分離卷積,提高了模型的識別能力。設(shè)計了
    發(fā)表于 05-30 20:30

    激光焊接視覺定位引導(dǎo)方法

    激光焊接是一種高效、精確的焊接技術(shù),廣泛應(yīng)用于汽車制造、航空航天、電子產(chǎn)品等領(lǐng)域。隨著工業(yè)自動化和智能化的發(fā)展,激光焊接的精度和效率需求日益增加。在此背景下,視覺定位引導(dǎo)技術(shù)成為提升激光焊接質(zhì)量
    的頭像 發(fā)表于 05-28 10:34 ?601次閱讀
    激光焊接<b class='flag-5'>視覺</b><b class='flag-5'>定位</b>引導(dǎo)方法

    一種利用光電容積描記(PPG)信號和深度學(xué)習(xí)模型對高血壓分類的新方法

    深度神經(jīng)網(wǎng)絡(luò)在計算機(jī)視覺任務(wù)中的有效性,并為開發(fā)更強(qiáng)大、更復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu)鋪平了道路。 ResNet-50是一種深度神經(jīng)網(wǎng)絡(luò)架構(gòu),由研究人員Kaiming He、XiangyuZh
    發(fā)表于 05-11 20:01

    采用單片超構(gòu)表面與元注意力網(wǎng)絡(luò)實(shí)現(xiàn)快照式近紅外光譜成像

    日前,北京理工大學(xué)王涌天教授、黃玲玲教授團(tuán)隊(duì)聯(lián)合張軍院士、邊麗蘅教授團(tuán)隊(duì),采用單片超構(gòu)表面與元注意力網(wǎng)絡(luò)實(shí)現(xiàn)快照式近紅外光譜成像。
    的頭像 發(fā)表于 04-25 09:08 ?1244次閱讀
    采用單片超構(gòu)表面與元<b class='flag-5'>注意力</b>網(wǎng)絡(luò)實(shí)現(xiàn)快照式近紅外光譜成像
    主站蜘蛛池模板: 亚洲成人免费看 | 波多野结衣在线免费视频 | 四虎884| 亚洲操| 欧美成人亚洲欧美成人 | 五月网婷婷| 8050网午夜一级毛片免费不卡 | 西西人体44rt高清午夜 | 黄色一级毛片网站 | 在线毛片网 | 国产区精品高清在线观看 | xxx69欧美| 欧美二区三区 | 88av免费观看 | 午夜高清在线观看免费6 | 精品国产一区二区三区成人 | 天天干天天碰 | 人人看人人干 | 天天干天天操天天拍 | 理论片国产 | 国产又黄又免费aaaa视频 | 国内久久精品视频 | 永久精品免费影院在线观看网站 | 久久精品免费观看视频 | 成人在线视频网址 | 男女透逼视频 | 伊人五月婷婷 | www.亚洲天堂.com | 亚洲欧美日韩动漫 | 5x视频在线观看 | 国产激情在线观看 | 欧美午夜色大片在线观看免费 | 色黄污在线看黄污免费看黄污 | 久久视频精品36线视频在线观看 | 大象焦伊人久久综合网色视 | 日本乱妇 | 国产午夜精品理论片久久影视 | 一区视频在线播放 | 色婷婷色99国产综合精品 | 中文字幕第一 | 色婷婷激婷婷深爱五月小说 |