在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的輕量級視覺Transformer

CVer ? 來源:CVHub ? 作者:CVHub ? 2022-12-19 14:00 ? 次閱讀

Introduction

隨著 ViT 的出現(xiàn),Transformer 模型在計算機(jī)視覺領(lǐng)域遍地開花,一層激起一層浪。雖然精度很高,但被人廣為詬病的依舊是它的效率問題,說人話就是這東西壓根不好部署在移動端。

隨后,有許多研究人員提出了很多解決方案來加速注意力機(jī)制,例如早先蘋果提出的 Mobile-Former 以及前段時間的 EdgeNeXt,均是針對移動端設(shè)計的。

本文的思路也很簡單,就是仿造 CNNs 圈子中的移動端之王—— MobileNet 來進(jìn)行一系列的設(shè)計和優(yōu)化。對于端側(cè)部署來講,模型的參數(shù)量(例如 Flash 大小)和延遲對資源受限型的硬件來說至關(guān)重要。因此,作者結(jié)合了細(xì)粒度聯(lián)合搜索策略,提出了一種具備低延遲和大小的高效網(wǎng)絡(luò)——EfficientFormerV2 ,該網(wǎng)絡(luò)在同等量級參數(shù)量和延遲下比 MobileNetV2 可以高出4個百分點(diǎn)(ImageNet驗證集)。

28605084-7f5c-11ed-8abf-dac502259ad0.pngComparison of model size, speed, and performance

上圖所示模型是在 ImageNet-1K 上進(jìn)行訓(xùn)練所獲得的 Top-1 精度。延遲是在 iPhone 12(iOS 16)上進(jìn)行測量的。每個圓圈的面積與參數(shù)數(shù)量(模型大小)成正比。可以看出,EfficientFormerV2 在模型更小和推理速度更快的情況下獲得了更高的性能。

Framework

先來看下整體的網(wǎng)絡(luò)長什么樣子:

288aa5a0-7f5c-11ed-8abf-dac502259ad0.pngOverall

既然都叫 EfficientFormerV2,那必然是在上一版的基礎(chǔ)上改進(jìn)了,如圖(a)所示。沒什么特別新奇的,一個很常規(guī)的 ViT 型架構(gòu)。下面的圖表是作者統(tǒng)計的實驗改進(jìn)結(jié)果:

29266526-7f5c-11ed-8abf-dac502259ad0.pngNumber of parameters, latency, and performance for various design choices

基于整體架構(gòu)圖和上述表格,讓我們逐步拆解看看究竟做了哪些改進(jìn)。

Token Mixers vs. Feed Forward Network

通常來說,結(jié)合局部信息可以有效提高性能,同時使 ViTs 對明確的位置嵌入缺失表現(xiàn)得更加穩(wěn)健。PoolFormerEfficientFormer 中都使用了 3×3 的平均池化層(如圖 2(a)所示)作為局部的Token Mixers。采用相同卷積核大小的深度可分離卷積(DWCONV)替換這些層不會帶來延遲開銷,同時性能也能提高 **0.6%**,參數(shù)量僅微漲 0.02M。此外,同 NASVit,作者也在 ViTs 的前饋網(wǎng)絡(luò)(FFN)中注入了局部信息建模層,這也有益于提高性能。

這里,作者直接將原來的 Pooling 層刪掉了(下采樣越大,理論感受野越大),而是直接替換成 BottleNeck 的形式,先用 1×1 卷積降維壓縮,再嵌入 3×3 的深度可分離卷積提取局部信息,最后再通過 1×1 的卷積升維。這樣做的一個好處是,這種修改有利于后續(xù)直接才用超參搜索技術(shù)搜索出具體模塊數(shù)量的網(wǎng)絡(luò)深度,以便在網(wǎng)絡(luò)的后期階段中提取局部和全局信息。

Search Space Refinement

通過調(diào)整網(wǎng)絡(luò)的深度即每個階段中的塊數(shù)和寬度即通道數(shù),可以發(fā)現(xiàn),更深和更窄的網(wǎng)絡(luò)可以帶來:

  • 更好的準(zhǔn)確性(0.2% 的性能提升)
  • 更少的參數(shù)(0.13M 的參數(shù)壓縮)
  • 更低的延遲(0.1ms 的推理加速)

同時將這個修改的網(wǎng)絡(luò)設(shè)置為后續(xù) NAS 搜素的 Baseline.

MHSA Improvements

一般的 Transformer 模塊都會包含兩個組件,即多頭注意力 MHSA 和全連接層 FFN. 作者隨后便研究了如何在不增加模型大小和延遲的情況下提高注意模塊性能的技術(shù)。

首先,通過 3×3 的卷積將局部信息融入到 Value 矩陣中,這一步跟 NASVitInception transformer 一樣。

其次,在 Head 維度之間添加 FC 層(就圖中標(biāo)識的Talking Head),增強(qiáng)不同頭之間的信息交互。

通過這些修改,可以發(fā)現(xiàn)性能進(jìn)一步提高了,與基線模型相比,準(zhǔn)確度達(dá)到了 80.8%,同時參數(shù)和延遲也基本保持一致。

Attention on Higher Resolution

加入注意力機(jī)制普遍都是能夠提升性能的。然而,將它應(yīng)用于高分辨率特征會降低端側(cè)的推理效率,因為它具有與空間分辨率成平方關(guān)系的時間復(fù)雜度。因此,作者僅在最后的 1/32 的空間分辨率下使用,而對于倒數(shù)的第二階段即 4 倍下采樣提出了另外一種 MHSA,這有助于將準(zhǔn)確率提高了 0.9% 同時加快推理效率。

先前的解決方案,例如 Cswin transformerSwin transformer 都是采用基于滑動窗口的方式去壓縮特征維度,又或者像 Next-vit 一樣直接將 KeysValues 矩陣進(jìn)行下采樣壓縮,這些方法對于移動端部署并不是一個最佳的選擇。這里也不難理解,以 Swin transformer 為例,它在每個 stage 都需要進(jìn)行復(fù)雜的窗口劃分和重新排序,所以這種基于 windows 的注意力是很難在移動設(shè)備上加速優(yōu)化的。而對于 Next-vit 來說表面上看雖然進(jìn)行了壓縮,但整個 KeyValue 矩陣依舊需要全分辨率查詢矩陣(Query)來保持注意力矩陣乘法后的輸出分辨率。

本文方法的解決方案可以參考圖(d)和(e),整體思路是采用一個帶步長的注意力,實現(xiàn)上就是將所有的 QKV 均下采樣到固定的空間分辨率(這里是 1/32),并將注意力的輸出復(fù)原到原始分辨率以喂入下一層。(⊙o⊙)…,有點(diǎn)類似于把瓶頸層的思路又搬過來套。

Attention Downsampling

以往的下采樣方式大都是采用帶步長的卷積或者池化層直接進(jìn)行的。不過最近也有一部分工作在探討 Transformer 模塊內(nèi)部的下采樣方式,如 LeViTUniNet 提出通過注意力機(jī)制將特征分辨率減半,從而更好的整合全局上下文來進(jìn)感知下采樣。具體的做法也就是將 Query 中的 Token 數(shù)量減半,從而對注意力模塊的輸出進(jìn)行壓縮。

說到這里不經(jīng)意間有個疑問,Token 數(shù)量減少多少才是合適?況且,如果我們直接就對所有的查詢矩陣進(jìn)行降采樣的話,這對于較前的 stage 的特征提取是不利的,因為網(wǎng)絡(luò)的淺層更多的是提取諸如紋理、顏色、邊緣等 low-level 的信息,因此從經(jīng)驗上來看是需要保持更高分辨率的。

作者的方法是提出一種結(jié)合局部和全局上下文融合的組合策略,如上圖(f)所示。為了得到下采樣的查詢,采用池化層作為靜態(tài)局部下采樣,而 3×3 DWCONV 則作為可學(xué)習(xí)的局部下采樣,并將結(jié)果拼接起來并投影到查詢矩陣中。此外,注意力下采樣模塊殘差連接到一個帶步長的卷積以形成局部-全局方式,類似于下采樣瓶頸 或倒置瓶頸層。

Super-Network-Search

上面定義完基礎(chǔ)的網(wǎng)絡(luò)架構(gòu)后,作者又進(jìn)一步的應(yīng)用了一種細(xì)粒度聯(lián)合搜索策略,具體算法步驟如下所示:

2946b952-7f5c-11ed-8abf-dac502259ad0.pngNAS

整體架構(gòu)沿用的是超網(wǎng)的結(jié)構(gòu)。

Conclusion

在這項工作中,作者全面研究混合視覺主干并驗證對于端側(cè)更加友好的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計。此外,基于確定的網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)一步提出了在大小和速度上的細(xì)粒度聯(lián)合搜索,并獲得了輕量級和推理速度超快的 EfficientFormerV2 模型。


		
			

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1700

    瀏覽量

    46136
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    146

    瀏覽量

    6050

原文標(biāo)題:更快更強(qiáng)!EfficientFormerV2來了!一種新的輕量級視覺Transformer

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一種新的通用視覺主干模型Vision Mamba

    CNN和Transformer常作為深度學(xué)習(xí)模型的首選基礎(chǔ)模塊,被應(yīng)用于各種場景,如文本、視覺、語音信號處理及其各種下游應(yīng)用。然而這兩個基礎(chǔ)模塊都有著其固有而互補(bǔ)的缺陷:CNN具有固定大小窗口的卷積
    的頭像 發(fā)表于 01-06 09:55 ?156次閱讀
    <b class='flag-5'>一種</b>新的通用<b class='flag-5'>視覺</b>主干模型Vision Mamba

    華為Flexus云服務(wù)器搭建SamWaf開源輕量級網(wǎng)站防火墻

    在當(dāng)今數(shù)字化高速發(fā)展的時代,網(wǎng)絡(luò)安全問題日益凸顯。為了保障網(wǎng)站的穩(wěn)定運(yùn)行和數(shù)據(jù)安全,我們可以借助華為 Flexus 云服務(wù)器搭建 SamWaf 開源輕量級網(wǎng)站防火墻。這不僅是次技術(shù)的挑戰(zhàn),更是為網(wǎng)站筑牢安全防線的重要舉措。
    的頭像 發(fā)表于 12-29 16:59 ?307次閱讀
    華為Flexus云服務(wù)器搭建SamWaf開源<b class='flag-5'>輕量級</b>網(wǎng)站防火墻

    EEPROM輕量級的簡易類文件的數(shù)據(jù)讀寫庫:EEPROMFS

    小。 這里就給大家分享款EEPROM輕量級的簡易類文件的數(shù)據(jù)讀寫庫:EEPROMFS 1 關(guān)于EEPROMFS EEPROMFS,基于EEPROM的簡易類文件的數(shù)據(jù)讀寫庫,方便做動態(tài)功能增減時參數(shù)管理
    的頭像 發(fā)表于 11-15 16:31 ?640次閱讀
    EEPROM<b class='flag-5'>輕量級</b>的簡易類文件的數(shù)據(jù)讀寫庫:EEPROMFS

    自動駕駛中直說的BEV+Transformer到底是個啥?

    (Bird’s Eye View)+Transformer”是兩個方向的技術(shù),BEV是一種全新的3D坐標(biāo)系,而Transformer則是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,BEV+
    的頭像 發(fā)表于 11-07 11:19 ?544次閱讀
    自動駕駛中<b class='flag-5'>一</b>直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    電裝與京瓷合作開展輕量級太陽能發(fā)電系統(tǒng)實證實驗

    株式會社電裝(以下簡稱電裝)與京瓷株式會社(以下簡稱京瓷)共同宣布,為提高現(xiàn)有工廠自發(fā)電率,將從2024年10月到2025年9月在電裝的西尾工廠進(jìn)行輕量級太陽能發(fā)電系統(tǒng)的實證實驗。
    的頭像 發(fā)表于 08-16 16:36 ?552次閱讀

    國產(chǎn)芯上運(yùn)行TinyMaxi輕量級的神經(jīng)網(wǎng)絡(luò)推理庫-米爾基于芯馳D9國產(chǎn)商顯板

    本篇測評由優(yōu)秀測評者“短笛君”提供。本文將介紹基于米爾電子MYD-YD9360商顯板(米爾基于芯馳D9360國產(chǎn)開發(fā)板)的TinyMaxi輕量級的神經(jīng)網(wǎng)絡(luò)推理庫方案測試。 算力測試TinyMaix
    發(fā)表于 08-09 18:26

    基于Openharmony輕量級操作系統(tǒng)的分布式數(shù)據(jù)管理開發(fā)案例

    實驗內(nèi)容本例程演示如何在小凌派-RK2206開發(fā)板上使用OpenHarmony輕量級操作系統(tǒng)進(jìn)行KvStore(即分布式數(shù)據(jù)管理)數(shù)據(jù)讀寫。例程:(1)創(chuàng)建兩個線程,個負(fù)責(zé)寫入KvStore存儲
    的頭像 發(fā)表于 08-07 08:23 ?1067次閱讀
    基于Openharmony<b class='flag-5'>輕量級</b>操作系統(tǒng)的分布式數(shù)據(jù)管理開發(fā)案例

    鴻蒙語言基礎(chǔ)類庫:ohos.data.storage 輕量級存儲

    輕量級存儲為應(yīng)用提供key-value鍵值型的文件數(shù)據(jù)處理能力,支持應(yīng)用對數(shù)據(jù)進(jìn)行輕量級存儲及查詢。數(shù)據(jù)存儲形式為鍵值對,鍵的類型為字符串型,值的存儲數(shù)據(jù)類型包括數(shù)字型、字符型、布爾型。
    的頭像 發(fā)表于 07-15 18:21 ?1049次閱讀

    國產(chǎn)芯上運(yùn)行TinyMaxi輕量級的神經(jīng)網(wǎng)絡(luò)推理庫-米爾基于芯馳D9國產(chǎn)商顯板

    本篇測評由與非網(wǎng)的優(yōu)秀測評者“短笛君”提供。本文將介紹基于米爾電子MYD-YD9360商顯板(米爾基于芯馳D9360國產(chǎn)開發(fā)板)的TinyMaxi輕量級的神經(jīng)網(wǎng)絡(luò)推理庫方案測試。算力測試
    的頭像 發(fā)表于 07-05 08:02 ?1947次閱讀
    國產(chǎn)芯上運(yùn)行TinyMaxi<b class='flag-5'>輕量級</b>的神經(jīng)網(wǎng)絡(luò)推理庫-米爾基于芯馳D9國產(chǎn)商顯板

    消息稱蘋果正在研發(fā)輕量級AR眼鏡

    在科技巨頭們競相探索未來穿戴設(shè)備的浪潮中,蘋果公司的則消息引起了業(yè)界的廣泛關(guān)注。據(jù)多家媒體報道,蘋果正在秘密研發(fā)款名為“Apple Glass”的輕量級增強(qiáng)現(xiàn)實(AR)眼鏡,這款眼鏡旨在為用戶
    的頭像 發(fā)表于 06-24 11:34 ?772次閱讀

    部署在邊緣設(shè)備上的輕量級模型

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)邊緣AI算法是一種將人工智能(AI)算法和計算能力放置在接近數(shù)據(jù)源的終端設(shè)備中的策略。這種算法通常被部署在邊緣設(shè)備上,如傳感器、智能手機(jī)、攝像頭等,以便在靠近數(shù)據(jù)源
    的頭像 發(fā)表于 05-11 00:17 ?2695次閱讀

    深度詳解嵌入式系統(tǒng)專用輕量級框架設(shè)計

    MR 框架是專為嵌入式系統(tǒng)設(shè)計的輕量級框架。充分考慮了嵌入式系統(tǒng)在資源和性能方面的需求。通過提供標(biāo)準(zhǔn)化的設(shè)備管理接口,極大簡化了嵌入式應(yīng)用開發(fā)的難度,幫助開發(fā)者快速構(gòu)建嵌入式應(yīng)用程序。
    發(fā)表于 04-27 02:32 ?1039次閱讀
    深度詳解嵌入式系統(tǒng)專用<b class='flag-5'>輕量級</b>框架設(shè)計

    未來輕量級深度學(xué)習(xí)技術(shù)探索

    除了輕量級架構(gòu)設(shè)計外,作者提到了可以應(yīng)用于壓縮給定架構(gòu)的各種高效算法。例如,量化方法 旨在減少數(shù)據(jù)所需的存儲空間,通常是通過用8位或16位數(shù)字代替32位浮點(diǎn)數(shù),甚至使用二進(jìn)制值表示數(shù)據(jù)。
    發(fā)表于 04-23 15:54 ?451次閱讀
    未來<b class='flag-5'>輕量級</b>深度學(xué)習(xí)技術(shù)探索

    視覺Transformer基本原理及目標(biāo)檢測應(yīng)用

    視覺Transformer般結(jié)構(gòu)如圖2所示,包括編碼器和解碼器兩部分,其中編碼器每層包括個多頭自注意力模塊(self-attenti
    發(fā)表于 04-03 10:32 ?3867次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>Transformer</b>基本原理及目標(biāo)檢測應(yīng)用

    百度智能云推出全新輕量級大模型

    在近日舉辦的百度智能云千帆產(chǎn)品發(fā)布會上,三款全新的輕量級大模型——ERNIE Speed、ERNIE Lite以及ERNIE Tiny,引起了業(yè)界的廣泛關(guān)注。相較于傳統(tǒng)的千億級別參數(shù)大模型,這些輕量級大模型在參數(shù)量上有了顯著減少,為客戶提供了更加靈活和經(jīng)濟(jì)高效的解決方案。
    的頭像 發(fā)表于 03-22 10:28 ?729次閱讀
    主站蜘蛛池模板: 天天摸天天看天天做天天爽 | 日本黄在线观看 | 波多久久夜色精品国产 | 视频在线观看免费 | 成人毛片在线播放 | 狠狠干天天爽 | 天堂va| 天天综合天天添夜夜添狠狠添 | 天天射网| 国产午夜精品久久久久免费视 | 男操女视频在线观看 | 激情网站网址 | 欧美亚洲一区二区三区在线 | 圆胖肥女人性视频 | 宅男666在线永久免费观看 | 狂野欧美激情性xxxx | 特大一级aaaaa毛片 | 黄色毛片免费 | 亚洲国产成人久久一区www | 狠狠88综合久久久久综合网 | 女人张开腿 让男人桶视频 女人张开腿等男人桶免费视频 | 91精品国产免费久久久久久青草 | 丁香花五月天婷婷 | a一级视频 | 国产卡一卡2卡三卡免费视频 | 中文字幕一区精品欧美 | 在线观看中文字幕一区 | 8888奇米四色在线 | 99伊人 | 色综合久久88 | 黑人一区二区三区中文字幕 | 亚洲理论在线 | 爱爱免费网址 | 欧美色亚洲图 | 久久国产精品夜色 | 亚洲三级在线 | 国产在线精品一区免费香蕉 | 特级一级毛片视频免费观看 | 国产yw855.c免费观看网站 | 午夜影院免费入口 | 黄色毛片免费 |