在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

?YOLO系列的演進(jìn),從v1到v7

新機(jī)器視覺 ? 來源:AI公園 ? 2023-03-22 10:42 ? 次閱讀

導(dǎo)讀

經(jīng)典再回顧,本文介紹v1到v3。

a750809a-c858-11ed-bfe3-dac502259ad0.png

如果你需要速度快的目標(biāo)檢測器,那么 YOLO 系列的神經(jīng)網(wǎng)絡(luò)模型實(shí)際上是當(dāng)今的標(biāo)準(zhǔn)。

解決檢測問題還有很多其他優(yōu)秀的模型,但我們不會(huì)在這篇綜述中涉及它們。

目前,已經(jīng)寫了相當(dāng)多的文章來分析 YOLO 各個(gè)版本的功能。本文的目的是對整個(gè)家族進(jìn)行比較分析。我們想看看架構(gòu)的演變,這樣我們就可以更好地了解檢測器是如何發(fā)展,哪些發(fā)展提高了性能,也許還可以想象事情的發(fā)展方向。

在YOLO出現(xiàn)之前,檢測圖像中目標(biāo)的主要方法是使用各種大小的滑動(dòng)窗口按順序穿過原始圖像的各個(gè)部分,以便分類器給出圖像的哪個(gè)部分包含哪個(gè)目標(biāo)。這種方法是合乎邏輯的,但非常慢。

一段時(shí)間之后,出現(xiàn)了一個(gè)特殊的部分,它暴露了感興趣的區(qū)域 —— 一些假設(shè),圖像上可能有有趣的東西。但是這些感興趣區(qū)域還是太多,有數(shù)千個(gè)。最快的算法,F(xiàn)aster R-CNN,平均在0.2秒內(nèi)處理一張圖片,每秒5幀。總的來說,在出現(xiàn)一種全新的方法之前,速度不容樂觀。

有什么新奇之處?

在以前的方法中,原始圖像的每個(gè)像素可以被神經(jīng)網(wǎng)絡(luò)處理數(shù)百甚至數(shù)千次。每次這些像素都通過相同的神經(jīng)網(wǎng)絡(luò)傳遞,經(jīng)過相同的計(jì)算。是否可以做一些事情以免重復(fù)相同的計(jì)算?

事實(shí)證明,這是可能的。但為此,我們不得不稍微重新表述問題。如果說以前它是一個(gè)分類任務(wù),那么現(xiàn)在它變成了一個(gè)回歸任務(wù)。

YOLO aka YOLOv1

讓我們考慮第一個(gè) YOLO 模型,也稱為 YOLOv1。

作者

Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi

主要論文

“You Only Look Once: Unified, Real-Time Object Detection”, publication date 2015/06

代碼庫

除了基于darknet框架的官方實(shí)現(xiàn)之外,在其他通用框架上還有大量各種流行的實(shí)現(xiàn)。

  1. https://pjreddie.com/darknet/yolov1/
  2. https://github.com/thtrieu/darkflow, 2.1k forks / 6k stars, GPL-3.0 license
  3. https://github.com/gliese581gg/YOLO_tensorflow, 670 forks / 1.7k stars, non-commercial license
  4. https://github.com/hizhangp/yolo_tensorflow, 455 forks / 784 stars
  5. https://github.com/nilboy/tensorflow-yolo, 331 forks / 780 stars
  6. https://github.com/abeardear/pytorch-YOLO-v1, 214 forks / 473 stars, MIT license
  7. https://github.com/dshahrokhian/YOLO_tensorflow, 22 forks / 42 stars

性能比較

a763ae7c-c858-11ed-bfe3-dac502259ad0.png

Pascal VOC 2007上的實(shí)時(shí)系統(tǒng)。YOLO是有記錄以來最快的Pascal VOC檢測檢測器,其準(zhǔn)確性仍然是任何其他實(shí)時(shí)檢測器的兩倍。

結(jié)構(gòu)

a78eb46e-c858-11ed-bfe3-dac502259ad0.png

在結(jié)構(gòu)上,YOLO 模型由以下部分組成:

  1. input ― 輸入圖像被饋送到的輸入層
  2. backbone — 輸入圖像以特征形式編碼的部分。
  3. neck — 這是模型的其他部分,用于處理按特征編碼的圖像
  4. head — 生成模型預(yù)測的一個(gè)或多個(gè)輸出層。

該網(wǎng)絡(luò)的第一個(gè)版本基于GoogLeNet的架構(gòu)。卷積層接MaxPool層級聯(lián),最后以兩個(gè)全連接層的級聯(lián)作為結(jié)束。

此外,作者訓(xùn)練了Fast YOLO架構(gòu)的更快版本,包含更少的卷積層(9而不是24)。兩個(gè)模型的輸入分辨率均為 448x448,但網(wǎng)絡(luò)主要部分的預(yù)訓(xùn)練通過分辨率為 224x224 的分類器訓(xùn)練。

在此結(jié)構(gòu)中,原始圖片被劃分為 S x S 單元格(在原始 7 x 7 中),每個(gè)單元格預(yù)測 B 個(gè)邊界框,這些 bbox 中存在目標(biāo)的置信度,以及 C 類的概率。每條邊的單元格數(shù)是奇數(shù),因此圖像的中心有一個(gè)單元格。這比偶數(shù)具有優(yōu)勢,因?yàn)檎掌闹行耐ǔS幸粋€(gè)主要目標(biāo),在這種情況下,主要的預(yù)測是在中心單元格中進(jìn)行的。在區(qū)域數(shù)量為偶數(shù)的情況下,中心可能位于四個(gè)中央?yún)^(qū)域中的某個(gè)位置,這降低了網(wǎng)絡(luò)的置信水平。

置信度值表示模型對給定 bbox 包含某個(gè)目標(biāo)的置信度,以及 bbox 預(yù)測其位置的準(zhǔn)確度。事實(shí)上,這是IoU存在物體概率的乘積。如果單元格中沒有目標(biāo),則置信度為零。

每個(gè) bbox 由 5 個(gè)數(shù)字組成:x、y、w、h 和置信度。(x, y)為單元格內(nèi) bbox 中心的坐標(biāo),w 和 h為 bbox相對于整個(gè)圖片尺寸的歸一化的寬度和高度,即歸一化從 0 到 1 的值。置信度是預(yù)測的 bbox 和GT框之間的 IoU。每個(gè)單元格還預(yù)測目標(biāo)類的 C 個(gè)條件概率。每個(gè)單元格僅預(yù)測一組類別,而不考慮 bbox的數(shù)量。

因此,在一次前向中,預(yù)測了 S×S×B個(gè)包圍框。他們中的大多數(shù)框的置信度都很低,但是,通過設(shè)置一定的閾值,我們可以去除其中的很大一部分。但最重要的是,(與競爭對手相比)檢測率提高了幾個(gè)數(shù)量級。這是非常合乎邏輯的,因?yàn)樗蓄悇e的所有 bbox 現(xiàn)在只需一次預(yù)測。對于不同的實(shí)現(xiàn),原始文章給出了從 45 到 155 的FPS。盡管與以前的算法相比,mAP的準(zhǔn)確性仍然有所下降,但在某些問題中,實(shí)時(shí)檢測更為重要。

得到檢測框

由于與物體中心相鄰的單元格也可以產(chǎn)生bbox,從而導(dǎo)致框過多,因此有必要選擇其中最好的。為此,使用NMS技術(shù),其工作原理如下。此類的所有 bbox,置信度低于給定閾值的那些將被丟棄。對于其余部分,執(zhí)行IoU的成對比較過程。如果兩個(gè)框的 IoU > 0.5,則丟棄置信度較低的框。否則,兩個(gè)框都會(huì)保留在列表中。因此,類似的框被抑制了。

損失函數(shù)是組合的,具有以下形式:

a7a2596a-c858-11ed-bfe3-dac502259ad0.png

第一項(xiàng)是目標(biāo)中心坐標(biāo)的損失,第二項(xiàng)是框尺寸的損失,第三項(xiàng)是目標(biāo)的類損失,如果目標(biāo)不存在,則第四項(xiàng)是類的損失,第五項(xiàng)是在框中找到某個(gè)目標(biāo)的概率。

需要 lambda 系數(shù)來防止置信度變?yōu)榱悖驗(yàn)榇蠖鄶?shù)單元格中沒有目標(biāo)。1(obj,i)表示的中心是否出現(xiàn)在單元格 i 中,1(obj,i,j)表示單元格 i 中的第 j 個(gè) bbox 負(fù)責(zé)此預(yù)測。

優(yōu)勢

高速

  • 比當(dāng)時(shí)的競爭對手更好的泛化能力,在另一個(gè)領(lǐng)域進(jìn)行測試(訓(xùn)練是在ImageNet上進(jìn)行的)顯示出更好的性能。
  • 圖像背景部分的誤報(bào)更少。

局限性

  • 每個(gè)單元格 2 個(gè) bbox 和一個(gè)類目標(biāo)的限制。這意味著一堆小物體的識別度較低。
  • 原始圖像的幾個(gè)連續(xù)下采樣導(dǎo)致精度不高。
  • 損失的設(shè)計(jì)方式是,它對大框和小框的錯(cuò)誤具有同樣懲罰。作者試圖通過取尺寸大小的根來補(bǔ)償這種影響,但這并沒有完全消除這種影響。

YOLOv2 / YOLO9000

作者

Joseph Redmon, Ali Farhadi

主要論文

“YOLO9000: Better, Faster, Stronger”, publication date 2016/12

代碼倉庫

  1. https://pjreddie.com/darknet/yolov2/
  2. https://github.com/experiencor/keras-yolo2, 795 forks / 1.7k stars, MIT license
  3. https://github.com/longcw/yolo2-pytorch, 417 forks / 1.5k stars
  4. https://github.com/philipperemy/yolo-9000, 309 forks / 1.1k stars, Apache-2.0 license

性能比較

a7c28c80-c858-11ed-bfe3-dac502259ad0.png

Pascal VOC 2007的檢測框架。YOLOv2 比以前的檢測方法更快、更準(zhǔn)確。它還可以以不同的分辨率運(yùn)行,以便在速度和準(zhǔn)確性之間輕松權(quán)衡。每個(gè) YOLOv2 條目實(shí)際上是具有相同權(quán)重的相同訓(xùn)練模型,只是以不同的大小進(jìn)行評估。所有計(jì)時(shí)信息均在 Geforce GTX Titan X 上測試。

結(jié)構(gòu)特點(diǎn)

  1. 作者對模型的第一個(gè)版本進(jìn)行了一些改進(jìn)。

  2. 刪除了 dropout,并在所有卷積層中添加了BN。

  3. 預(yù)訓(xùn)練為分辨率為 448x448 的分類器(YOLOv1 分辨率為 224x224),然后將最終網(wǎng)絡(luò)縮小到 416x416 輸入,以產(chǎn)生奇數(shù)個(gè) 13x13 單元。

  4. 刪除了全連接層。相反,他們開始使用全卷積和錨框來預(yù)測bbox(如Faster RCNN)。這樣可以減少空間信息的丟失(就像在 v1 中的全連接層中一樣)。

  5. 刪除了一個(gè)最大池化以增加特征的細(xì)節(jié)(分辨率)。在 v1 中,每張圖片只有 98 個(gè) bbox,使用 V2 中的錨點(diǎn),結(jié)果有超過 1000 個(gè) bbox,而 mAP 略有下降,但召回率顯著增加,這使得提高整體準(zhǔn)確性成為可能。

  6. 維度先驗(yàn)。bbox的大小和位置不是像FasterRCNN那樣隨機(jī)手動(dòng)選擇的,而是通過k-means聚類自動(dòng)選擇的。盡管在小bbox上使用具有歐氏距離的標(biāo)準(zhǔn)k均值,但檢測誤差更高,因此對于k均值,選擇了另一個(gè)距離度量,1 - IoU(box,質(zhì)心)。選擇5個(gè)作為分組數(shù)目的折衷方案。測試表明,對于以這種方式選擇的 5 個(gè)質(zhì)心,平均 IoU 與 9 個(gè)錨點(diǎn)大致相同。

  7. 直接位置預(yù)測。最初,對于錨,與確定中心(x,y)坐標(biāo)相關(guān)的網(wǎng)絡(luò)訓(xùn)練存在不穩(wěn)定性:由于網(wǎng)絡(luò)權(quán)重是隨機(jī)初始化的,并且坐標(biāo)預(yù)測是線性的,大小是沒有限制的。因此,我們沒有預(yù)測相對于錨中心的偏移量,其中系數(shù)的正確范圍是 [-1,1],而是決定預(yù)測 bbox 相對于單元格中心的偏移,范圍 [0,1],并使用 sigmoid 來限制它。網(wǎng)絡(luò)為每個(gè)單元格預(yù)測 5 個(gè) bbox,每個(gè) bbox 5 個(gè)數(shù)字:tx、ty、tw、th、to。bbox 的預(yù)測參數(shù)計(jì)算如下:

a7d4ead8-c858-11ed-bfe3-dac502259ad0.png

具有維度先驗(yàn)和位置預(yù)測的邊界框。我們將框的寬度和高度預(yù)測為聚類質(zhì)心的偏移量。我們使用 sigmoid 函數(shù)預(yù)測框相對于中心坐標(biāo)的偏移。

a7e1de32-c858-11ed-bfe3-dac502259ad0.png

  1. 細(xì)粒度特征。特征映射現(xiàn)在為 13x13。
  2. 多尺度訓(xùn)練。由于網(wǎng)絡(luò)是全卷積的,因此只需更改輸入圖像的分辨率即可動(dòng)態(tài)更改其分辨率。為了提高網(wǎng)絡(luò)的魯棒性,其輸入分辨率每 10 批次更改一次。由于網(wǎng)絡(luò)縮小了 32 倍,因此輸入分辨率是從集合 {320, 352, ..., 608} 中選擇的。網(wǎng)絡(luò)的大小從 320x320 調(diào)整為 608x608。
  3. 加速。VGG-16作為v1的骨干,太重了,所以在第二個(gè)版本中使用了darknet-19:

a7f41ffc-c858-11ed-bfe3-dac502259ad0.png

訓(xùn)練分類器后,從網(wǎng)絡(luò)中刪除最后一個(gè)卷積層,添加三個(gè)具有 1024 個(gè)濾波器的 3x3 卷積層和一個(gè)具有檢測所需輸出數(shù)量的最終 1x1的卷積層。在 VOC 的情況下,它是 5 個(gè) bbox,每個(gè) bbox 有 5 個(gè)坐標(biāo),每個(gè) bbox 有 20 個(gè)類,總共有 125 個(gè)濾波器。

  1. 分層分類。在 v1 中,這些類屬于同一類目標(biāo)并且是互斥的,而在 v2 中引入了 WordNet 樹結(jié)構(gòu),這是一個(gè)有向圖。每個(gè)類別中的類都是互斥的,并且有自己的softmax。因此,例如,如果圖片顯示已知品種網(wǎng)絡(luò)的狗,則網(wǎng)絡(luò)將返回狗和特定品種的類。如果是網(wǎng)絡(luò)未知品種的狗,那么它只會(huì)返回狗的類別。因此,訓(xùn)練了 YOLO9000,它是具有 3 個(gè)先驗(yàn)的 v2,而不是 5 個(gè)和 9418 個(gè)目標(biāo)類。

a815611c-c858-11ed-bfe3-dac502259ad0.png

ImageNet vs WordTree上的預(yù)測。大多數(shù) ImageNet 模型使用一個(gè)大的 softmax 來預(yù)測概率分布。使用WordTree,我們對共同下義詞執(zhí)行多個(gè)softmax操作。

a82eb7a2-c858-11ed-bfe3-dac502259ad0.png

使用 WordTree 層次結(jié)構(gòu)合并數(shù)據(jù)集。使用WordNet概念圖,我們構(gòu)建了一個(gè)視覺概念的分層樹。然后,我們可以通過將數(shù)據(jù)集中的類映射到樹中的合成集來將數(shù)據(jù)集合并在一起。這是 WordTree 的簡化視圖,用于說明目的。

優(yōu)勢

  • 現(xiàn)在它不僅是速度方面的 SOTA,而且在 mAP 方面也是。
  • 現(xiàn)在可以更好地檢測小物體。

YOLOv3

作者

Joseph Redmon, Ali Farhadi

主要論文

“YOLOv3: An Incremental Improvement”, publication date 2018/04

代碼倉庫

  1. https://pjreddie.com/darknet/yolo/, all-permissive license
  2. https://github.com/ultralytics/yolov3, 3.3k forks / 8.9k stars, GPL-3.0 license
  3. https://github.com/eriklindernoren/PyTorch-YOLOv3, 2.6k forks / 6.8k stars, GPL-3.0 license

性能比較

a838538e-c858-11ed-bfe3-dac502259ad0.png

YOLOv3 的運(yùn)行速度明顯快于具有相當(dāng)性能的其他檢測方法。從M40或Titan X開始,它們基本上是相同的GPU

結(jié)構(gòu)

這是模型的增量更新,即沒有根本上更改,只有一組改進(jìn)技巧。

  1. 每個(gè) bbox 的置信度得分,即給定 bbox 中存在目標(biāo)的概率,現(xiàn)在也使用 sigmoid 計(jì)算。
  2. 作者從多類分類切換到多標(biāo)簽,所以我們擺脫了softmax,轉(zhuǎn)而支持二進(jìn)制交叉熵。
  3. 在三個(gè)尺度上對 bbox 進(jìn)行預(yù)測,輸出張量大小:N * N * (3 * (4 + 1 + num_classes))
  4. 作者使用k均值重新計(jì)算先驗(yàn)框,并在三個(gè)尺度上得到了9個(gè)bbox。
  5. 新的、更深、更準(zhǔn)確的骨干/特征提取器Darknet-53。

a842227e-c858-11ed-bfe3-dac502259ad0.png

  1. 在準(zhǔn)確性方面,它與 ResNet-152 相當(dāng),但由于更有效地使用 GPU,它所需的操作減少了近 1.5 倍,產(chǎn)生的 FPS 提高了 2 倍。

總體結(jié)構(gòu)

a858dd84-c858-11ed-bfe3-dac502259ad0.jpg

不起作用的方法

  • BBOX 通過線性激活函數(shù)而不是logistic激活函數(shù)來協(xié)調(diào)位移預(yù)測。
  • focal loss — mAP 下降了 2 點(diǎn)。
  • 用于確定GT的雙 IoU — 在 Faster R-CNN 中,IOU 有兩個(gè)閾值,通過該閾值確定正樣本或負(fù)樣本(>0.7 正值,0.3-0.7 忽略,<0.3 負(fù)樣本)

優(yōu)勢

  • 發(fā)布時(shí)的檢測精度高于競爭對手
  • 發(fā)布時(shí)的檢測率高于競爭對手

在下一部分中,我們將考慮v4,v5,PP-YOLOS和YOLOX。敬請期待!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4701

    瀏覽量

    94854
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41059
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13414

原文標(biāo)題:?YOLO系列的演進(jìn),從v1到v7

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    S2C發(fā)布最新ASIC原型驗(yàn)證平臺Quad V7

    S2C Inc.今日宣布將最新的原型驗(yàn)證平臺Quad V7加入其V7 TAI Logic Module系列。Quad V7 是基于Xilinx Virtex-
    發(fā)表于 01-23 11:28 ?2442次閱讀

    LT8228V1V2是BUCK模式,V2V1是BOOST模式,請問這個(gè)模式是固定的嗎?

    看LT8228的示例,V1V2是BUCK模式,V2
    發(fā)表于 01-05 07:10

    卡西歐ex v7用戶使用說明書

    卡西歐ex v7用戶使用說明書
    發(fā)表于 01-14 00:01 ?33次下載
    卡西歐ex <b class='flag-5'>v7</b>用戶使用說明書

    V919 AIR V7版本刷機(jī)教程_For_Android

    V919 AIR V7版本刷機(jī)教程_For_Android是一個(gè)不可多得的東東。希望這文件對朋友有作用,謝謝了。
    發(fā)表于 11-13 11:48 ?0次下載

    BroadDirector簡明手冊v1

    BroadDirector簡明手冊v1
    發(fā)表于 01-02 19:49 ?0次下載

    RMON 管理v1

    RMON 管理v1
    發(fā)表于 01-02 19:49 ?0次下載

    7周年!MIUI V1MIUI9圖標(biāo)演進(jìn)一覽:你最喜歡哪一版?

    2010年8月16日MIUI V1初次亮相,如今快如閃電MIUI9,MIUI已經(jīng)七歲了。
    發(fā)表于 08-16 17:23 ?2094次閱讀

    QuadE V7快速原型驗(yàn)證產(chǎn)品系列

    加利福尼亞州,圣何塞 - 2014年2月25日 - 業(yè)界領(lǐng)先的SoC/ASIC快速原型解決方案提供商S2C Inc.于今日宣布,在其基于FPGA的原型平臺V7 TAI Logic Module系列
    的頭像 發(fā)表于 02-11 14:27 ?3821次閱讀

    美圖V7高清圖賞

    1月8日下午,美圖手機(jī)正式發(fā)布美圖V7標(biāo)準(zhǔn)版,搭載驍龍845處理器,全球首創(chuàng)的前置三攝配置,支持“前置AI夜拍美顏”“3D凝時(shí)相機(jī)”“閉眼修復(fù)”等攝影功能。
    的頭像 發(fā)表于 01-30 09:25 ?3804次閱讀

    美圖V7手機(jī)體驗(yàn)評測 性能最強(qiáng)的美圖手機(jī)

    美圖V7怎么樣?美圖手機(jī)在2018年底曾推出了旗下V系列的最新產(chǎn)品“美圖V7”,這也是美圖獨(dú)立研發(fā)的最后一款手機(jī)產(chǎn)品。那么,美圖V7究竟怎么
    的頭像 發(fā)表于 07-22 14:58 ?9496次閱讀

    美圖V7全面評測 一款沒有任何妥協(xié)的產(chǎn)品

    美圖V7評測:早在去年11月份,就和小米“聯(lián)姻”。作為最后一款美圖自研的產(chǎn)品,能帶給我們哪些驚喜呢?美圖V7在自拍美顏方面的優(yōu)化怎么樣?
    的頭像 發(fā)表于 07-11 11:54 ?4638次閱讀

    lvgl 庫 V7版本相關(guān)應(yīng)用

    在使用 lvgl 庫的時(shí)候,筆者使用的 V7 版本的庫,使用過程中發(fā)現(xiàn)網(wǎng)上關(guān)于 V7 版本的資料非常少,官網(wǎng)有文檔介紹其如何使用,但有些方面...
    發(fā)表于 01-26 17:06 ?0次下載
    lvgl 庫 <b class='flag-5'>V7</b>版本相關(guān)應(yīng)用

    淺談YOLO系列的神經(jīng)網(wǎng)絡(luò)模型v1v7演進(jìn)

    在以前的方法中,原始圖像的每個(gè)像素可以被神經(jīng)網(wǎng)絡(luò)處理數(shù)百甚至數(shù)千次。每次這些像素都通過相同的神經(jīng)網(wǎng)絡(luò)傳遞,經(jīng)過相同的計(jì)算。是否可以做一些事情以免重復(fù)相同的計(jì)算?
    發(fā)表于 04-24 15:45 ?685次閱讀
    淺談<b class='flag-5'>YOLO</b><b class='flag-5'>系列</b>的神經(jīng)網(wǎng)絡(luò)模型<b class='flag-5'>從</b><b class='flag-5'>v1</b><b class='flag-5'>到</b><b class='flag-5'>v7</b>的<b class='flag-5'>演進(jìn)</b>

    ANO匿名上位機(jī)V7協(xié)議&STM32

    ANO匿名上位機(jī)V7協(xié)議&STM32 說明:以下程序?yàn)樽约壕帉懀粲姓`歡迎各位指出。 基于ANO匿名V7上位機(jī)的通信協(xié)議編寫的代碼文章目錄ANO匿名上位機(jī)V7協(xié)議&STM32 前言 一、Ano
    發(fā)表于 05-09 11:08 ?17次下載
    ANO匿名上位機(jī)<b class='flag-5'>V7</b>協(xié)議&STM32

    國民技術(shù)硬件設(shè)計(jì)指南V1

    國民技術(shù)UG_N32G43X_&_UG_N32L40X_&_UG_N32L43X_系列硬件設(shè)計(jì)指南V1
    發(fā)表于 10-18 16:12 ?1次下載
    主站蜘蛛池模板: 99久久久久久久 | 亚洲乱码一二三四区 | 美女张开大腿让男人桶 | 国产精品久久女同磨豆腐 | 天天综合干 | 国产区精品高清在线观看 | 欧美色综合久久 | 天天爽夜夜爽一区二区三区 | 五月天婷婷色综合 | 日本在线观看永久免费网站 | 在线欧美视频免费观看国产 | 国产嫩草影院精品免费网址 | 久国产精品久久精品国产四虎 | 禁漫画羞羞动漫入口 | 色综合天天综合网国产人 | 免费一级特黄特色大片在线观看 | 美女毛片视频 | 欧美系列在线观看 | 51视频在线观看免费国产 | 女同毛片免费网站 | 国产精品一区二区三区免费视频 | 福利午夜最新 | 欧美性猛交xxxx乱大交高清 | 日本黄色网址免费 | 狠狠躁 | 天天干天天弄 | 日本高清视频网站www | 国产福利在线观看一区二区 | 正在播放羽月希与黑人bd在线 | 婷婷激情电影 | 国产男靠女免费视频网站 | 美女网站色黄 | 片黄免费 | 激情综合色综合啪啪开心 | 国产精品7m凸凹视频分类大全 | 69堂在线观看国产成人 | 男人天堂网址 | 色多多在线看 | 最新合集丨新片速递 | 国产真实灌醉美女疯狂弄 | 国产乱辈通伦影片在线播放 |