在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Swin Transformer在MIM中的應用

OpenCV學堂 ? 來源:量子位 ? 作者:量子位 ? 2022-05-31 10:15 ? 次閱讀

自何愷明MAE橫空出世以來,MIM(Masked Image Modeling)這一自監督預訓練表征越來越引發關注。

但與此同時, 研究人員也不得不思考它的局限性。

MAE論文中只嘗試了使用原版ViT架構作為編碼器,而表現更好的分層設計結構(以Swin Transformer為代表),并不能直接用上MAE方法。

于是,一場整合的范式就此在研究團隊中上演。

代表工作之一是來自清華、微軟亞研院以及西安交大提出SimMIM,它探索了Swin Transformer在MIM中的應用。

但與MAE相比,它在可見和掩碼圖塊均有操作,且計算量過大。有研究人員發現,即便是SimMIM的基本尺寸模型,也無法在一臺配置8個32GB GPU的機器上完成訓練。

基于這樣的背景,東京大學&商湯&悉尼大學的研究員,提供一個新思路。

cf3dbdfe-e030-11ec-ba43-dac502259ad0.png

不光將Swin Transformer整合到了MAE框架上,既有與SimMIM相當的任務表現,還保證了計算效率和性能——

將分層ViT的訓練速度提高2.7倍,GPU內存使用量減少70%。

來康康這是一項什么研究?

當分層設計引入MAE

這篇論文提出了一種面向MIM的綠色分層視覺Transformer。

即允許分層ViT丟棄掩碼圖塊,只對可見圖塊進行操作。

cf59a7ee-e030-11ec-ba43-dac502259ad0.png

具體實現,由兩個關鍵部分組成。

首先,設計了一種基于分治策略的群體窗口注意力方案。

將具有不同數量可見圖塊的局部窗口聚集成幾個大小相等的組,然后在每組內進行掩碼自注意力。

cf7baa60-e030-11ec-ba43-dac502259ad0.png

其次,把上述分組任務視為有約束動態規劃問題,受貪心算法的啟發提出了一種分組算法。

cf9d5566-e030-11ec-ba43-dac502259ad0.png

它可以自適應選擇最佳分組大小,并將局部窗口分成最少的一組,從而使分組圖塊上的注意力整體計算成本最小。

表現相當,訓練時間大大減少

結果顯示,在ImageNet-1K和MS-COCO數據集上實驗評估表明,與基線SimMIM性能相當的同時,效率提升2倍以上。

cfbce552-e030-11ec-ba43-dac502259ad0.png

而跟SimMIM相比,這一方法在所需訓練時間大大減少,消耗GPU內存也小得多。具體而言,在相同的訓練次數下,在Swin-B上提高2倍的速度和減少60%的內存。

d00b726c-e030-11ec-ba43-dac502259ad0.png

值得一提的是,該研究團隊在有8個32GB V100 GPU的單機上進行評估的,而SimMIM是在2或4臺機器上進行評估。

研究人員還發現,效率的提高隨著Swin-L的增大而變大,例如,與SimMIM192相比,速度提高了2.7倍。

實驗的最后,提到了算法的局限性。其中之一就是需要分層次掩碼來達到最佳的效率,限制了更廣泛的應用。這一點就交給未來的研究。

d050031e-e030-11ec-ba43-dac502259ad0.png

而談到這一研究的影響性,研究人員表示,主要就是減輕了MIM的計算負擔,提高了MIM的效率和有效性。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3688

    瀏覽量

    135466
  • 數據集
    +關注

    關注

    4

    文章

    1212

    瀏覽量

    24895

原文標題:何愷明MAE局限性被打破,與Swin Transformer結合,訓練速度大大提升 | 東大&商湯&悉大

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何使用MATLAB構建Transformer模型

    Transformer 模型 2017 年由 Vaswani 等人在論文《Attentionis All You Need》首次提出。其設計初衷是為了解決自然語言處理(Nature
    的頭像 發表于 02-06 10:21 ?967次閱讀
    如何使用MATLAB構建<b class='flag-5'>Transformer</b>模型

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT的“T”)的專用芯片。 將transform
    的頭像 發表于 01-06 09:13 ?442次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    Transformer是機器人技術的基礎嗎

    生成式預訓練Transformer(GPT)被吹捧為將徹底改變機器人技術。但實際應用,GPT需要龐大且昂貴的計算資源、冗長的訓練時間以及(通常)非機載無線控制,諸多限制之下,GPT技術真的
    的頭像 發表于 12-05 10:54 ?336次閱讀
    <b class='flag-5'>Transformer</b>是機器人技術的基礎嗎

    Transformer模型的具體應用

    如果想在 AI 領域引領一輪新浪潮,就需要使用到 Transformer
    的頭像 發表于 11-20 09:28 ?780次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發表于 11-20 09:27 ?510次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    自動駕駛中一直說的BEV+Transformer到底是個啥?

    很多車企的自動駕駛介紹,都會聽到一個關鍵技術,那就是BEV+Transformer,那BEV+Transformer到底是個啥?為什么很多車企
    的頭像 發表于 11-07 11:19 ?617次閱讀
    自動駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    英偉達推出歸一化Transformer,革命性提升LLM訓練速度

    了新的突破。 相較于傳統的Transformer架構,nGPT保持原有精度的同時,直接將大型語言模型(LLM)的訓練速度提升了高達20倍。這一顯著的性能提升,無疑將極大地推動AI技術的發展和應用。 nGPT
    的頭像 發表于 10-23 11:30 ?477次閱讀

    Transformer能代替圖神經網絡嗎

    Transformer作為一種處理序列數據方面表現出色的深度學習模型,自其提出以來,已經自然語言處理(NLP)、時間序列分析等領域取得了顯著的成果。然而,關于Transformer
    的頭像 發表于 07-12 14:07 ?576次閱讀

    Transformer語言模型簡介與實現過程

    自然語言處理(NLP)領域,Transformer模型以其卓越的性能和廣泛的應用前景,成為了近年來最引人注目的技術之一。Transformer模型由谷歌2017年提出,并首次應用于
    的頭像 發表于 07-10 11:48 ?2215次閱讀

    Transformer架構自然語言處理的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域取得了顯著的進步。其中,Transformer架構的提出,為NLP領域帶來了革命性的變革。本文將深入探討Transformer架構的核心思想、組成部分以及自然語言處理領域的
    的頭像 發表于 07-09 11:42 ?1021次閱讀

    Transformer模型語音識別和語音生成的應用優勢

    自然語言處理、語音識別、語音生成等多個領域展現出強大的潛力和廣泛的應用前景。本文將從Transformer模型的基本原理出發,深入探討其語音識別和語音生成的應用優勢,并展望其未來發展趨勢。
    的頭像 發表于 07-03 18:24 ?1410次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結構、訓
    的頭像 發表于 07-02 11:41 ?1949次閱讀

    Transformer 能代替圖神經網絡嗎?

    Transformer模型發布時,它徹底革新了機器翻譯領域。雖然最初是為特定任務設計的,但這種革命性的架構顯示出它可以輕松適應不同的任務。隨后成為了Transformer一個標準,甚至用于它最
    的頭像 發表于 07-02 08:27 ?410次閱讀
    <b class='flag-5'>Transformer</b> 能代替圖神經網絡嗎?

    基于xLSTM和Transformer的模型評估:xLSTM“語言能力”的表現

    近期,HochreiterarXiv平臺發表論文,推出了一款新型的XLSTM(擴展LSTM)架構,有效克服了傳統LSTM互聯網結構“僅能按時間順序處理信息”的局限性,有望挑戰當前熱門的Transformer架構。
    的頭像 發表于 05-13 10:31 ?955次閱讀

    基于Transformer模型的壓縮方法

    基于Transformer架構的大型模型人工智能領域中發揮著日益重要的作用,特別是自然語言處理(NLP)和計算機視覺(CV)領域。
    的頭像 發表于 02-22 16:27 ?753次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法
    主站蜘蛛池模板: 国产激情三级 | 色综合视频一区二区三区 | 国产免费一区二区三区在线 | www.久艹| 色综合狠狠 | 欧美精品专区55页 | 日韩午夜在线视频不卡片 | 亚洲成人7777 | 激情婷婷色 | 成人免费看黄网站yyy456 | 男啪女色黄无遮挡免费观看 | 欧美簧片| 伊人久久大香线蕉电影院 | 久久精品国产2020观看福利色 | wwwwwww色| 丁香色婷婷 | 狠狠躁夜夜躁人人爽天天miya | 无人码一区二区三区视频 | 免费又爽又黄的禁片1000部 | 欧美性生活一级 | 夜夜天天操 | 色成人综合网 | 欧美三级在线视频 | 天天爽夜夜爽人人爽免费 | 变态重口极致另类在线 | 噜啪啪| 黄色日屁 | 天天干天天上 | 欧美另类丰满69xxxxx | 日韩三级免费看 | 九九九国产在线 | 中国同志chinese小彬tv | 日韩毛片一级 | 亚洲一级特黄特黄的大片 | 你懂的在线看 | 天堂在线观看 | 色播图片 | 免费一级毛片在级播放 | 国产三级日本三级日产三级66 | 午夜视频在线观看一区二区 | 一本久草 |