在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)比作一場“熱兵器革命”

新機(jī)器視覺 ? 來源:DeepBlue深蘭科技 ? 2020-08-28 10:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

二十年

計(jì)算機(jī)視覺領(lǐng)域中有幾個(gè)基本的任務(wù):圖像分類[3]、目標(biāo)檢測[4]、實(shí)例分割[5]及語義分割[6],其中目標(biāo)檢測作為計(jì)算機(jī)視覺中最基本的任務(wù)在近年來引起了廣泛關(guān)注。某種意義上,它在過去二十年內(nèi)的發(fā)展也是計(jì)算機(jī)視覺發(fā)展史的縮影。如果我們將今天基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)比作一場“熱兵器革命”,那么回顧20年前的技術(shù)時(shí)即可窺探“冷兵器”時(shí)代的智慧。

過去二十年中與 “ 目標(biāo)檢測 ” 相關(guān)的出版物數(shù)量的增長

目標(biāo)檢測是一項(xiàng)計(jì)算機(jī)視覺任務(wù)。正如視覺對于人的作用一樣,目標(biāo)檢測旨在解決計(jì)算機(jī)視覺應(yīng)用中兩個(gè)最基本的問題:

1. 該物體是什么?

2. 該物體在哪里?

當(dāng)然,聰明的人可能會(huì)立即想到第三個(gè)問題:“該物體在干什么?”這即是更進(jìn)一步的邏輯及認(rèn)知推理,這一點(diǎn)在近年來的目標(biāo)檢測技術(shù)中也越來越被重視。不管怎樣,作為計(jì)算機(jī)視覺的基本任務(wù),它也是其他計(jì)算機(jī)視覺任務(wù)的主要成分,如實(shí)例分割、圖像字幕、目標(biāo)跟蹤等。

從應(yīng)用的角度來看,目標(biāo)檢測可以被分為兩個(gè)研究主題:“通用目標(biāo)檢測(General Object Detection) ” 及 “檢測應(yīng)用(Detection Applications)” ,前者旨在探索在統(tǒng)一的框架下檢測不同類型物體的方法,以模擬人類的視覺和認(rèn)知;后者是指特定應(yīng)用場景下的檢測,如行人檢測、人臉檢測、文本檢測等。

近年來,隨著深度學(xué)習(xí)技術(shù)[7]的快速發(fā)展,為目標(biāo)檢測注入了新鮮血液,取得了顯著的突破,也將其推向了一個(gè)前所未有的研究熱點(diǎn)。目前,目標(biāo)檢測已廣泛應(yīng)用于自動(dòng)駕駛機(jī)器人視覺、視頻監(jiān)控等領(lǐng)域。

二十年間的發(fā)展

如下圖所示,以2014年為分水嶺,目標(biāo)檢測在過去的二十年中可大致分為兩個(gè)時(shí)期:2014年前的“傳統(tǒng)目標(biāo)檢測期”及之后的“基于深度學(xué)習(xí)的目標(biāo)檢測期”。接下來我們詳細(xì)談?wù)搩蓚€(gè)時(shí)期的發(fā)展。

傳統(tǒng)檢測

早期的目標(biāo)檢測算法大多是基于手工特征構(gòu)建的。由于當(dāng)時(shí)缺乏有效的圖像表示,人們別無選擇,只能設(shè)計(jì)復(fù)雜的特征表示及各種加速技術(shù)對有限的計(jì)算資源物盡其用。

(1) Viola Jones檢測器

18年前,P. Viola和M. Jones在沒有任何約束(如膚色分割)的情況下首次實(shí)現(xiàn)了人臉的實(shí)時(shí)檢測[8][9]。他們所設(shè)計(jì)的檢測器在一臺(tái)配備700MHz Pentium III CPU電腦上運(yùn)行,在保持同等檢測精度的條件下的運(yùn)算速度是其他算法的數(shù)十甚至數(shù)百倍。這種檢測算法以共同作者的名字命名為“Viola-Jones (VJ) 檢測器”以紀(jì)念他們的重大貢獻(xiàn)。

VJ檢測器采用最直接的檢測方法,即滑動(dòng)窗口(slide window):查看一張圖像中所有可能的窗口尺寸和位置并判斷是否有窗口包含人臉。這一過程雖然聽上去簡單,但它背后所需的計(jì)算量遠(yuǎn)遠(yuǎn)超出了當(dāng)時(shí)計(jì)算機(jī)的算力。VJ檢測器結(jié)合了 “積分圖像”、“特征選擇” 和 “檢測級(jí)聯(lián)” 三種重要技術(shù),大大提高了檢測速度。

1)積分圖像:這是一種計(jì)算方法,以加快盒濾波或卷積過程。與當(dāng)時(shí)的其他目標(biāo)檢測算法一樣[10],在VJ檢測器中使用Haar小波作為圖像的特征表示。積分圖像使得VJ檢測器中每個(gè)窗口的計(jì)算復(fù)雜度與其窗口大小無關(guān)。

2)特征選擇:作者沒有使用一組手動(dòng)選擇的Haar基過濾器,而是使用Adaboost算法從一組巨大的隨機(jī)特征池 (大約18萬維) 中選擇一組對人臉檢測最有幫助的小特征。

3)檢測級(jí)聯(lián):在VJ檢測器中引入了一個(gè)多級(jí)檢測范例 ( 又稱“檢測級(jí)聯(lián)”,detection cascades ),通過減少對背景窗口的計(jì)算,而增加對人臉目標(biāo)的計(jì)算,從而減少了計(jì)算開銷。

(2) HOG 檢測器

方向梯度直方圖(HOG)特征描述器最初是由N. Dalal和B.Triggs在2005年提出的[11]。HOG對當(dāng)時(shí)的尺度不變特征變換(scale-invariant feature transform)和形狀語境(shape contexts)做出重要改進(jìn)。

為了平衡特征不變性 ( 包括平移、尺度、光照等 ) 和非線性 ( 區(qū)分不同對象類別 ),HOG描述器被設(shè)計(jì)為在密集的均勻間隔單元網(wǎng)格(稱為一個(gè)“區(qū)塊”)上計(jì)算,并使用重疊局部對比度歸一化方法來提高精度

雖然HOG可以用來檢測各種對象類,但它的主要目標(biāo)是行人檢測問題。如若要檢測不同大小的對象,則要讓HOG檢測器在保持檢測窗口大小不變的情況下,對輸入圖像進(jìn)行多次重設(shè)尺寸(rescale)。這么多年來,HOG檢測器一直是許多目標(biāo)檢測器和各種計(jì)算機(jī)視覺應(yīng)用的重要基礎(chǔ)。

方向梯度直方圖(HOG),計(jì)算出每個(gè)像素朝四周的梯度方向和梯度強(qiáng)度,并統(tǒng)計(jì)形成梯度直方圖

(3) 基于可變形部件的模型(DPM)

DPM作為voco -07、-08、-09屆檢測挑戰(zhàn)賽的優(yōu)勝者,它曾是傳統(tǒng)目標(biāo)檢測方法的巔峰。DPM最初是由P. Felzenszwalb提出的[12],于2008年作為HOG檢測器的擴(kuò)展,之后R. Girshick進(jìn)行了各種改進(jìn)[13][14]。

DPM遵循“分而治之”的檢測思想,訓(xùn)練可以簡單地看作是學(xué)習(xí)一種正確的分解對象的方法,推理可以看作是對不同對象部件的檢測的集合。例如,檢測“汽車”的問題可以看作是檢測它的窗口、車身和車輪。工作的這一部分,也就是“star model”由P.Felzenszwalb等人完成。后來,R. Girshick進(jìn)一步將star model擴(kuò)展到 “ 混合模型 ”,以處理更顯著變化下的現(xiàn)實(shí)世界中的物體。

一個(gè)典型的DPM檢測器由一個(gè)根過濾器(root-filter)和一些零件濾波器(part-filters)組成。該方法不需要手動(dòng)設(shè)定零件濾波器的配置(如尺寸和位置),而是在開發(fā)了一種弱監(jiān)督學(xué)習(xí)方法并使用到了DPM中,所有零件濾波器的配置都可以作為潛在變量自動(dòng)學(xué)習(xí)。R. Girshick將這個(gè)過程進(jìn)一步表述為一個(gè)多實(shí)例學(xué)習(xí)的特殊案例,同時(shí)還應(yīng)用了“困難負(fù)樣本挖掘(hard-negative mining)”、“邊界框回歸”、“語境啟動(dòng)”等重要技術(shù)以提高檢測精度。而為了加快檢測速度,Girshick開發(fā)了一種技術(shù),將檢測模型“ 編譯 ”成一個(gè)更快的模型,實(shí)現(xiàn)了級(jí)聯(lián)結(jié)構(gòu),在不犧牲任何精度的情況下實(shí)現(xiàn)了超過10倍的加速。

雖然今天的目標(biāo)探測器在檢測精度方面已經(jīng)遠(yuǎn)遠(yuǎn)超過了DPM,但仍然受到DPM的許多有價(jià)值的見解的影響,如混合模型、困難負(fù)樣本挖掘、邊界框回歸等。2010年,P. Felzenszwalb和R. Girshick被授予PASCAL VOC的 “終身成就獎(jiǎng)”。

基于卷積神經(jīng)網(wǎng)絡(luò)的雙級(jí)檢測器

隨著手動(dòng)選取特征技術(shù)的性能趨于飽和,目標(biāo)檢測在2010年之后達(dá)到了一個(gè)平穩(wěn)的發(fā)展期。2012年,卷積神經(jīng)網(wǎng)絡(luò)在世界范圍內(nèi)重新煥發(fā)生機(jī)[15]。由于深卷積網(wǎng)絡(luò)能夠?qū)W習(xí)圖像的魯棒性和高層次特征表示,一個(gè)自然而然的問題是:我們能否將其應(yīng)用到目標(biāo)檢測中?

R. Girshick等人在2014年率先打破僵局,提出了具有CNN特征的區(qū)域(RCNN)用于目標(biāo)檢測[16]。從那時(shí)起,目標(biāo)檢測開始以前所未有的速度發(fā)展。在深度學(xué)習(xí)時(shí)代,目標(biāo)檢測可以分為兩類:“雙級(jí)檢測(two-stage detection)” 和 “單級(jí)檢測(one-stage detection)”,前者將檢測框定為一個(gè)“從粗到細(xì) ”的過程,而后者將其定義為“一步到位”。

雙級(jí)檢測的發(fā)展及各類檢測器的結(jié)構(gòu)[2]

(1) RCNN

RCNN[17]的思路很簡單:它首先通過選擇性搜索來提取一組對象作為“提案(proposal)”并當(dāng)做對象的候選框。然后將每個(gè)提案重新調(diào)整成一個(gè)固定大小的圖像,再輸入到一個(gè)在ImageNet上訓(xùn)練得到的CNN模型(如AlexNet) 來提取特征。最后,利用線性SVM分類器對每個(gè)區(qū)域內(nèi)的目標(biāo)進(jìn)行預(yù)測,識(shí)別目標(biāo)類別。RCNN在VOC07測試集上有明顯的性能提升,平均精準(zhǔn)度 (mean Average Precision,mAP) 從33.7%(DPM-v5) 大幅提高到58.5%。

雖然RCNN已經(jīng)取得了很大的進(jìn)步,但它的缺點(diǎn)是顯而易見的:需要在大量重疊的提案上進(jìn)行冗余的特征計(jì)算 (一張圖片超過2000個(gè)框),導(dǎo)致檢測速度極慢(使用GPU時(shí)每張圖片耗時(shí)14秒)。同年晚些時(shí)候,有人提出了SPPNet并克服了這個(gè)問題。

(2) SPPNet

2014年,K. He等人提出了空間金字塔池化網(wǎng)絡(luò)( Spatial Pyramid Pooling Networks,SPPNet)[18]。以前的CNN模型需要固定大小的輸入,例如AlexNet需要224x224圖像。SPPNet的主要貢獻(xiàn)是引入了空間金字塔池化(SPP)層,它使CNN能夠生成固定長度的表示,而不需要重新調(diào)節(jié)有意義圖像的尺寸。

利用SPPNet進(jìn)行目標(biāo)檢測時(shí),只對整個(gè)圖像進(jìn)行一次特征映射計(jì)算,然后生成任意區(qū)域的定長表示以訓(xùn)練檢測器,避免了卷積特征的重復(fù)計(jì)算。SPPNet的速度是R-CNN的20多倍,并且沒有犧牲任何檢測精度(VOC07 mAP=59.2%)。

SPPNet雖然有效地提高了檢測速度,但仍然存在一些不足:

第一,訓(xùn)練仍然是多階段的。

第二,SPPNet只對其全連接層進(jìn)行微調(diào),而忽略了之前的所有層。而次年晚些時(shí)候出現(xiàn)Fast RCNN并解決了這些問題。

(3)Fast RCNN

2015年,R. Girshick提出了Fast RCNN檢測器[19],這是對R-CNN和SPPNet的進(jìn)一步改進(jìn)。Fast RCNN使我們能夠在相同的網(wǎng)絡(luò)配置下同時(shí)訓(xùn)練檢測器和邊界框回歸器。在VOC07數(shù)據(jù)集上,F(xiàn)ast RCNN將mAP從58.5%( RCNN)提高到70.0%,檢測速度是R-CNN的200多倍。

雖然Fast-RCNN成功地融合了R-CNN和SPPNet的優(yōu)點(diǎn),但其檢測速度仍然受到提案檢測的限制。然后,一個(gè)問題自然而然地出現(xiàn)了:“ 我們能用CNN模型生成對象提案嗎? ” 之后的Faster R-CNN解決了這個(gè)問題。

(4) Faster RCNN

2015年,S. Ren等人提出了Faster RCNN檢測器[20],在Fast RCNN之后不久。Faster RCNN 是第一個(gè)端到端的,也是第一個(gè)接近實(shí)時(shí)的深度學(xué)習(xí)檢測器(COCO mAP@.5=42.7%,COCO mAP@[.5,.95]=21.9%, VOC07 mAP=73.2%,VOC12 mAP=70.4%)。

Faster RCNN的主要貢獻(xiàn)是引入了區(qū)域提案網(wǎng)絡(luò) (RPN)從而允許幾乎所有的cost-free的區(qū)域提案。從RCNN到Faster RCNN,一個(gè)目標(biāo)檢測系統(tǒng)中的大部分獨(dú)立塊,如提案檢測、特征提取、邊界框回歸等,都已經(jīng)逐漸集成到一個(gè)統(tǒng)一的端到端學(xué)習(xí)框架中。

雖然Faster RCNN突破了Fast RCNN的速度瓶頸,但是在后續(xù)的檢測階段仍然存在計(jì)算冗余。后來提出了多種改進(jìn)方案,包括RFCN和 Light head RCNN。

(5) Feature Pyramid Networks(FPN)

2017年,T.-Y.Lin等人基于Faster RCNN提出了特征金字塔網(wǎng)絡(luò)(FPN)[21]。在FPN之前,大多數(shù)基于深度學(xué)習(xí)的檢測器只在網(wǎng)絡(luò)的頂層進(jìn)行檢測。雖然CNN較深層的特征有利于分類識(shí)別,但不利于對象的定位。

為此,開發(fā)了具有橫向連接的自頂向下體系結(jié)構(gòu),用于在所有級(jí)別構(gòu)建高級(jí)語義。由于CNN通過它的正向傳播,自然形成了一個(gè)特征金字塔,F(xiàn)PN在檢測各種尺度的目標(biāo)方面顯示出了巨大的進(jìn)步。

在基礎(chǔ)的Faster RCNN系統(tǒng)中使用FPN骨架可在無任何修飾的條件下在MS-COCO數(shù)據(jù)集上以單模型實(shí)現(xiàn)state-of-the-art 的效果(COCO mAP@.5=59.1%,COCO mAP@[.5,.95]= 36.2%)。FPN現(xiàn)在已經(jīng)成為許多最新探測器的基本組成部分。

基于卷積神經(jīng)網(wǎng)絡(luò)的單級(jí)檢測器

單階段檢測的發(fā)展及各類檢測器的結(jié)構(gòu)[2]

(1) You Only Look Once (YOLO)

YOLO由R. Joseph等人于2015年提出[22]。它是深度學(xué)習(xí)時(shí)代的第一個(gè)單級(jí)檢測器。YOLO非常快:YOLO的一個(gè)快速版本運(yùn)行速度為155fps, VOC07 mAP=52.7%,而它的增強(qiáng)版本運(yùn)行速度為45fps, VOC07 mAP=63.4%, VOC12 mAP=57.9%。YOLO是“ You Only Look Once ” 的縮寫。從它的名字可以看出,作者完全拋棄了之前的“提案檢測+驗(yàn)證”的檢測范式。

相反,它遵循一個(gè)完全不同的設(shè)計(jì)思路:將單個(gè)神經(jīng)網(wǎng)絡(luò)應(yīng)用于整個(gè)圖像。該網(wǎng)絡(luò)將圖像分割成多個(gè)區(qū)域,同時(shí)預(yù)測每個(gè)區(qū)域的邊界框和概率。后來R. Joseph在 YOLO 的基礎(chǔ)上進(jìn)行了一系列改進(jìn),其中包括以路徑聚合網(wǎng)絡(luò)(Path aggregation Network, PAN)取代FPN,定義新的損失函數(shù)等,陸續(xù)提出了其 v2、v3及v4版本(截止本文的2020年7月,Ultralytics發(fā)布了“YOLO v5”,但并沒有得到官方承認(rèn)),在保持高檢測速度的同時(shí)進(jìn)一步提高了檢測精度。

必須指出的是,盡管與雙級(jí)探測器相比YOLO的探測速度有了很大的提高,但它的定位精度有所下降,特別是對于一些小目標(biāo)而言。YOLO的后續(xù)版本及在它之后提出的SSD更關(guān)注這個(gè)問題。

(2) Single Shot MultiBox Detector (SSD)

SSD由W. Liu等人于2015年提出[23]。這是深度學(xué)習(xí)時(shí)代的第二款單級(jí)探測器。SSD的主要貢獻(xiàn)是引入了多參考和多分辨率檢測技術(shù),這大大提高了單級(jí)檢測器的檢測精度,特別是對于一些小目標(biāo)。SSD在檢測速度和準(zhǔn)確度上都有優(yōu)勢(VOC07 mAP=76.8%,VOC12 mAP=74.9%, COCO mAP@.5=46.5%,mAP@[.5,.95]=26.8%,快速版本運(yùn)行速度為59fps) 。SSD與其他的檢測器的主要區(qū)別在于,前者在網(wǎng)絡(luò)的不同層檢測不同尺度的對象,而后者僅在其頂層運(yùn)行檢測。

(3) RetinaNet

單級(jí)檢測器有速度快、結(jié)構(gòu)簡單的優(yōu)點(diǎn),但在精度上多年來一直落后于雙級(jí)檢測器。T.-Y.Lin等人發(fā)現(xiàn)了背后的原因,并在2017年提出了RetinaNet[24]。他們的觀點(diǎn)為精度不高的原因是在密集探測器訓(xùn)練過程中極端的前景-背景階層不平衡(the extreme foreground-background class imbalance)現(xiàn)象。

為此,他們在RetinaNet中引入了一個(gè)新的損失函數(shù) “ 焦點(diǎn)損失(focal loss)”,通過對標(biāo)準(zhǔn)交叉熵?fù)p失的重構(gòu),使檢測器在訓(xùn)練過程中更加關(guān)注難分類的樣本。焦損耗使得單級(jí)檢測器在保持很高的檢測速度的同時(shí),可以達(dá)到與雙級(jí)檢測器相當(dāng)?shù)木取?COCO mAP@.5=59.1%,mAP@[.5, .95]=39.1% )。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:目標(biāo)檢測二十年間的那些事兒——從傳統(tǒng)方法到深度學(xué)習(xí)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    鋰電池失控原理及安全檢測技術(shù)解析

    的影響尚未完全量化。 創(chuàng)新方向展望: 智能傳感集成:開發(fā)柔性熱電偶與光纖傳感器,實(shí)現(xiàn)電池包內(nèi)部溫度實(shí)時(shí)映射; 數(shù)字孿生技術(shù):結(jié)合AI算法預(yù)測失控傳播路徑,優(yōu)化熱管理設(shè)計(jì)。 更多關(guān)于菲尼克斯
    發(fā)表于 05-12 16:51

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外成像技術(shù)的應(yīng)用案例

    眾所周知,礦卡、工程機(jī)械以及特種車所處作業(yè)環(huán)境相對較為復(fù)雜,安全與高效始終是其追求的核心目標(biāo)。近年來,紅外成像技術(shù)異軍突起,以其獨(dú)特優(yōu)勢,在這些領(lǐng)域掀起了一場
    的頭像 發(fā)表于 03-20 13:42 ?342次閱讀

    Imagination:軟件定義汽車時(shí)代,一場由算力驅(qū)動(dòng)的出行革命

    當(dāng)輛汽車的性能不再由發(fā)動(dòng)機(jī)排量決定,而是取決于車載芯片的算力與軟件的智能程度,這場由"軟件定義汽車"(SDV)引發(fā)的產(chǎn)業(yè)革命已勢不可擋。在2025年CES展會(huì)上,全球科技巨頭
    的頭像 發(fā)表于 03-10 14:00 ?880次閱讀
    Imagination:軟件定義汽車時(shí)代,<b class='flag-5'>一場</b>由算力驅(qū)動(dòng)的出行<b class='flag-5'>革命</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    1、簡介 人工智能圖像識(shí)別是人工智能領(lǐng)域的個(gè)重要分支,它涉及計(jì)算機(jī)視覺、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等多個(gè)領(lǐng)域的知識(shí)和技術(shù)。圖像識(shí)別主要是處理具有
    發(fā)表于 12-19 14:33

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?997次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題() Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度
    發(fā)表于 09-27 20:53

    目標(biāo)檢測與識(shí)別技術(shù)有哪些

    目標(biāo)檢測與識(shí)別技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的重要研究方向,廣泛應(yīng)用于安全監(jiān)控、自動(dòng)駕駛、醫(yī)療診斷、工業(yè)自動(dòng)化等領(lǐng)域。 目標(biāo)檢測與識(shí)別
    的頭像 發(fā)表于 07-17 09:40 ?1275次閱讀

    目標(biāo)檢測與識(shí)別技術(shù)的關(guān)系是什么

    目標(biāo)檢測與識(shí)別技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的兩個(gè)重要研究方向,它們之間存在著密切的聯(lián)系和相互依賴的關(guān)系。 目標(biāo)
    的頭像 發(fā)表于 07-17 09:38 ?1206次閱讀

    慧視小目標(biāo)識(shí)別算法 解決目標(biāo)檢測中的老大難問題

    隨著深度學(xué)習(xí)和人工智能技術(shù)的興起與技術(shù)成熟,大批如FasterR-CNN、RetinaNet、YOLO等可以在工業(yè)界使用的
    的頭像 發(fā)表于 07-17 08:29 ?932次閱讀
    慧視小<b class='flag-5'>目標(biāo)</b>識(shí)別算法   解決<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>中的老大難問題

    深度學(xué)習(xí)在工業(yè)機(jī)器視覺檢測中的應(yīng)用

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,其在工業(yè)機(jī)器視覺檢測中的應(yīng)用日益廣泛,并展現(xiàn)出巨大的潛力。工業(yè)機(jī)器視覺檢測是工業(yè)自動(dòng)化領(lǐng)域的重要組成部分,通過圖
    的頭像 發(fā)表于 07-08 10:40 ?1888次閱讀

    基于深度學(xué)習(xí)的無人機(jī)檢測與識(shí)別技術(shù)

    隨著無人機(jī)技術(shù)的快速發(fā)展,無人機(jī)在軍事、民用、商業(yè)等多個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,無人機(jī)的廣泛使用也帶來了諸多挑戰(zhàn),如空域安全、隱私保護(hù)等問題。因此,開發(fā)高效、準(zhǔn)確的無人機(jī)檢測與識(shí)別技術(shù)顯得尤為重要。本文將深入探討基于
    的頭像 發(fā)表于 07-08 10:32 ?2217次閱讀

    基于AI深度學(xué)習(xí)的缺陷檢測系統(tǒng)

    在工業(yè)生產(chǎn)中,缺陷檢測是確保產(chǎn)品質(zhì)量的關(guān)鍵環(huán)節(jié)。傳統(tǒng)的人工檢測方法不僅效率低下,且易受人為因素影響,導(dǎo)致誤檢和漏檢問題頻發(fā)。隨著人工智能技術(shù)的飛速發(fā)展,特別是深度
    的頭像 發(fā)表于 07-08 10:30 ?2477次閱讀

    基于深度學(xué)習(xí)的小目標(biāo)檢測

    在計(jì)算機(jī)視覺領(lǐng)域,目標(biāo)檢測直是研究的熱點(diǎn)和難點(diǎn)之。特別是在小目標(biāo)檢測方面,由于小
    的頭像 發(fā)表于 07-04 17:25 ?1962次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管
    的頭像 發(fā)表于 07-01 11:40 ?2341次閱讀
    主站蜘蛛池模板: 午夜激情福利 | 久久久久国产一级毛片高清板 | 亚洲香蕉毛片久久网站老妇人 | 亚洲 欧美 自拍 卡通 综合 | 国产三级日产三级韩国三级 | 国产精品理论 | 国产高清一区二区三区四区 | 亚州视频一区二区 | 日韩电影毛片 | 欧洲成品大片在线播放 | 成人5252色 | 91视频色 | 免费一级毛片在级播放 | 欧美性xxxxbbbb | 丝袜美腿视频一区二区三区 | 乱色伦肉小说 | 国产精品亚洲玖玖玖在线靠爱 | 亚洲乱亚洲乱妇41p国产成人 | 瑟瑟久久 | 免费看黄的视频网站 | 国产一级特黄aa大片爽爽 | 玖玖爱这里只有精品 | 国产无限资源 | 色综合久久98天天综合 | 日本在线看小视频网址 | 天天色综合5 | hs网站免费 | 婷婷六 | 免费观看欧美一级片 | 日本不卡免费高清视频 | www.五月天| xxxx性欧美极品另类 | 欧美成人观看免费全部完小说 | 国产欧美视频在线 | 亚洲午夜视频在线观看 | 亚洲午夜久久久久久91 | 黄色天堂 | 最新bt合集 | 完整日本特级毛片 | 亚洲国产精品久久久久婷婷老年 | 爱情社保片鲁丝片一区 |