91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于卷積多層感知器(MLP)的圖像分割網(wǎng)絡(luò)unext

lhl545545 ? 來(lái)源:CVer ? 作者:CVer ? 2022-09-27 15:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 摘要

UNet及其最新的擴(kuò)展如TransUNet是近年來(lái)領(lǐng)先的醫(yī)學(xué)圖像分割方法。然而,由于這些網(wǎng)絡(luò)參數(shù)多、計(jì)算復(fù)雜、使用速度慢,因此不能有效地用于即時(shí)應(yīng)用中的快速圖像分割。為此,我們提出了一種基于卷積多層感知器(MLP)的圖像分割網(wǎng)絡(luò)unext。我們?cè)O(shè)計(jì)了一種有效的UNeXt方法,即在前期采用卷積階段和在后期采用MLP階段。我們提出了一個(gè)標(biāo)記化的MLP塊,在該塊中,我們有效地標(biāo)記和投射卷積特征,并使用MLP來(lái)建模表示。

為了進(jìn)一步提高性能,我們建議在輸入mlp時(shí)shift輸入的channel,以便專注于學(xué)習(xí)局部依賴性。在潛在空間中使用標(biāo)記化的mlp減少了參數(shù)的數(shù)量和計(jì)算復(fù)雜度,同時(shí)能夠產(chǎn)生更好的表示,以幫助分割。該網(wǎng)絡(luò)還包括各級(jí)編碼器和解碼器之間的跳躍連接。測(cè)試結(jié)果表明,與目前最先進(jìn)的醫(yī)學(xué)圖像分割架構(gòu)相比,UNeXt的參數(shù)數(shù)量減少了72x,計(jì)算復(fù)雜度降低了68x,推理速度提高了10x,同時(shí)也獲得了更好的分割性能。

2. 網(wǎng)絡(luò)結(jié)構(gòu)

2.1 網(wǎng)絡(luò)設(shè)計(jì):

UNeXt是一個(gè)編碼器-解碼器體系結(jié)構(gòu),有兩個(gè)階段:

1) 卷積階段

2) tokenized MLP階段。

輸入圖像通過(guò)編碼器,其中前3個(gè)塊是卷積,下2個(gè)是tokenized MLP塊。解碼器有2個(gè)tokenized MLP塊,后面跟著3個(gè)卷積塊。每個(gè)編碼器塊減少特征分辨率2倍,每個(gè)解碼器塊增加特征分辨率2。跳躍連接也被應(yīng)用在了編碼器和解碼器之間

a82f13d8-3e2d-11ed-9e49-dac502259ad0.png

作者減少了每個(gè)stage的通道數(shù)。

每個(gè)stage的通道數(shù),對(duì)比標(biāo)準(zhǔn)的Unet:

UNeXt:32 64 128 160 256

UNet:64 128 256 512 1024

在這里面就減少了很多的參數(shù)量

2.2 卷積階段

有三個(gè)conv block,每個(gè)block都有一個(gè)卷積層(傳統(tǒng)Unet是兩個(gè))、批量歸一化層和ReLU激活。我們使用的內(nèi)核大小為3×3, stride為1,padding為1。編碼器的conv塊使用帶有池窗口2×2的max-pooling層,而解碼器的conv塊使用雙線性插值層對(duì)特征圖進(jìn)行上采樣。我們使用雙線性插值而不是轉(zhuǎn)置卷積,因?yàn)檗D(zhuǎn)置卷積基本上是可學(xué)習(xí)的上采樣,會(huì)導(dǎo)致產(chǎn)生更多可學(xué)習(xí)的參數(shù)

2.3 Shifted MLP

在shifted MLP中,在tokenize之前,我們首先移動(dòng)conv features通道的軸線。這有助于MLP只關(guān)注conv特征的某些位置,從而誘導(dǎo)塊的位置。這里的直覺(jué)與Swin transformer類似,在swin中引入基于窗口的注意,以向完全全局的模型添加更多的局域性。由于Tokenized MLP塊有2個(gè)mlp,我們?cè)谝粋€(gè)塊中跨越寬度移動(dòng)特征,在另一個(gè)塊中跨越高度移動(dòng)特征,就像軸向注意力中一樣。我們對(duì)這些特征做了h個(gè)劃分,并根據(jù)指定的軸通過(guò)j個(gè)位置移動(dòng)它們。這有助于我們創(chuàng)建隨機(jī)窗口,引入沿軸線的局部性。

a844412c-3e2d-11ed-9e49-dac502259ad0.jpgShift操作

圖中灰色是特征塊的位置,白色是移動(dòng)之后的padding。

2.4 Tokenized MLP階段

a84ccf7c-3e2d-11ed-9e49-dac502259ad0.jpgimage-20220402001733482

在Tokenized MLP塊中,我們首先shift features并將它們投射到token中。為了進(jìn)行token化,我們首先使用3x3conv把特征投射到E維,其中E是embadding維度(token的數(shù)量),它是一個(gè)超參數(shù)。然后我們將這些token傳遞給一個(gè)shifted MLP(跨越width)。接下來(lái),特征通過(guò) DW-Conv傳遞。然后我們使用GELU激活層。然后,我們通過(guò)另一個(gè)shifted MLP(跨越height)傳遞特征,該mlp把特征的尺寸從H轉(zhuǎn)換為了O。我們?cè)谶@里使用一個(gè)殘差連接,并將原始標(biāo)記添加為殘差。然后我們利用layer norm(LN),并將輸出特征傳遞到下一個(gè)塊。LN比BN更可取,因?yàn)樗幸饬x的是沿著token進(jìn)行規(guī)范化,而不是在Tokenized MLP塊的整個(gè)批處理中進(jìn)行規(guī)范化。

我們?cè)谶@個(gè)塊中使用DWConv有兩個(gè)原因:

1)它有助于編碼MLP特征的位置信息。從中可以看出,在一個(gè)MLP塊中Conv層已經(jīng)足夠?qū)ξ恢眯畔⑦M(jìn)行編碼,并且實(shí)際性能優(yōu)于標(biāo)準(zhǔn)的位置編碼技術(shù)。當(dāng)測(cè)試或者訓(xùn)練分辨率不相同時(shí),像ViT中的位置編碼技術(shù)需要插值,這通常會(huì)導(dǎo)致性能下降。

2)DWConv使用更少的參數(shù),因此提高了效率。

Tokenized block的計(jì)算流程

a8691240-3e2d-11ed-9e49-dac502259ad0.png

所有這些計(jì)算都是在嵌入維數(shù)h上執(zhí)行的,這個(gè)維數(shù)明顯小于特征的維數(shù) (H/N)×(H/N) ,N是關(guān)于降維的2的因子。在我們的實(shí)驗(yàn)中,除非另有說(shuō)明,否則我們使用768。這種設(shè)計(jì)tokenized MLP block的方法有助于編碼有意義的特征信息,而不會(huì)對(duì)計(jì)算或參數(shù)貢獻(xiàn)太多。

3.實(shí)驗(yàn)結(jié)果

在ISIC和BUSI數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)

a893c472-3e2d-11ed-9e49-dac502259ad0.png

在ISIC數(shù)據(jù)集的對(duì)比

a8ba4e80-3e2d-11ed-9e49-dac502259ad0.png

a8cea394-3e2d-11ed-9e49-dac502259ad0.png

a8eecce6-3e2d-11ed-9e49-dac502259ad0.png

4. 個(gè)人感悟

首先每個(gè)convolutional階段只有一個(gè)卷積層,極大的減少了運(yùn)算量,是答主第一次見(jiàn)了。

其次是把MLP的模塊引入了Unet,算是很新穎了。

在Tokenized MLP block中使用DW- CONV,讓人眼前一亮。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1178

    瀏覽量

    42016
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18345
  • 感知器
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    12009
  • MLP
    MLP
    +關(guān)注

    關(guān)注

    0

    文章

    57

    瀏覽量

    4629

原文標(biāo)題:MICCAI 2022 | UNeXt:第一個(gè)基于卷積和MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用全卷積網(wǎng)絡(luò)模型實(shí)現(xiàn)圖像分割

    OpenCv-C++-深度神經(jīng)網(wǎng)絡(luò)(DNN)模塊-使用FCN模型實(shí)現(xiàn)圖像分割
    發(fā)表于 05-28 07:33

    如何使用Keras框架搭建一個(gè)小型的神經(jīng)網(wǎng)絡(luò)多層感知器

    本文介紹了如何使用Keras框架,搭建一個(gè)小型的神經(jīng)網(wǎng)絡(luò)-多層感知器,并通過(guò)給定數(shù)據(jù)進(jìn)行計(jì)算訓(xùn)練,最好將訓(xùn)練得到的模型提取出參數(shù),放在51單片機(jī)上進(jìn)行運(yùn)行。
    發(fā)表于 11-22 07:00

    基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt相關(guān)資料分享

    緩慢。這篇文章提出了基于卷積多層感知器MLP)改進(jìn) U型架構(gòu)的方法,可以用于圖像分割。設(shè)計(jì)了一
    發(fā)表于 09-23 14:53

    一文詳解CNN

    識(shí)別、語(yǔ)音識(shí)別等場(chǎng)景取得巨大的成功。 CNN的發(fā)展史: 提到CNN的發(fā)展史,就要提到多層感知器(Multi-Layer Perception, MLP)。(圖片來(lái)源于3Blue1Brown)
    發(fā)表于 08-18 06:56

    人工神經(jīng)網(wǎng)絡(luò)在金相圖像分割中的應(yīng)用研究

    摘要: 利用多層感知器神經(jīng)網(wǎng)絡(luò)和自組織映射神經(jīng)網(wǎng)絡(luò)對(duì)球墨鑄鐵、可鍛鑄鐵和灰鑄鐵的金相圖像進(jìn)行了分割
    發(fā)表于 03-12 16:27 ?25次下載
    人工神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>在金相<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>中的應(yīng)用研究

    人工智能–多層感知器基礎(chǔ)知識(shí)解讀

    感知器(Perceptron)是ANN人工神經(jīng)網(wǎng)絡(luò)的一個(gè)概念,由Frank Rosenblatt于1950s第一次引入。 MLP多層感知器
    發(fā)表于 07-05 14:45 ?6336次閱讀

    聚焦語(yǔ)義分割任務(wù),如何用卷積神經(jīng)網(wǎng)絡(luò)處理語(yǔ)義圖像分割

    同一對(duì)象。作者將沿著該領(lǐng)域的研究脈絡(luò),說(shuō)明如何用卷積神經(jīng)網(wǎng)絡(luò)處理語(yǔ)義圖像分割的任務(wù)。 更具體地講,語(yǔ)義圖像
    發(fā)表于 09-17 15:21 ?681次閱讀

    卷積網(wǎng)絡(luò)FCN進(jìn)行圖像分割

    Networks for Semantic Segmentation》在圖像語(yǔ)義分割挖了一個(gè)坑,于是無(wú)窮無(wú)盡的人往坑里面跳。 全卷積網(wǎng)絡(luò) Fully Convolutional Ne
    發(fā)表于 09-26 17:22 ?776次閱讀

    多層感知機(jī)(MLP)的設(shè)計(jì)與實(shí)現(xiàn)

    多層感知機(jī)(Multilayer Perceptron)縮寫為MLP,也稱作前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network)。它是一種基于神經(jīng)
    的頭像 發(fā)表于 03-14 11:31 ?8084次閱讀
    <b class='flag-5'>多層</b><b class='flag-5'>感知</b>機(jī)(<b class='flag-5'>MLP</b>)的設(shè)計(jì)與實(shí)現(xiàn)

    PyTorch教程5.2之多層感知器的實(shí)現(xiàn)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程5.2之多層感知器的實(shí)現(xiàn).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:32 ?0次下載
    PyTorch教程5.2之<b class='flag-5'>多層</b><b class='flag-5'>感知器</b>的實(shí)現(xiàn)

    使用多層感知器進(jìn)行機(jī)器學(xué)習(xí)

    我們將使用一個(gè)極其復(fù)雜的微處理來(lái)實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)可以完成與由少數(shù)晶體管組成的電路相同的事情,這個(gè)想法有些幽默。但與此同時(shí),以這種方式思考這個(gè)問(wèn)題強(qiáng)調(diào)了單層感知器作為一般分
    的頭像 發(fā)表于 06-24 11:17 ?833次閱讀
    使用<b class='flag-5'>多層</b><b class='flag-5'>感知器</b>進(jìn)行機(jī)器學(xué)習(xí)

    卷積神經(jīng)網(wǎng)絡(luò)算法有哪些?

    卷積神經(jīng)網(wǎng)絡(luò)算法有哪些?? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN) 是一種基于多層
    的頭像 發(fā)表于 08-21 16:50 ?2060次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)
    的頭像 發(fā)表于 07-02 10:00 ?2508次閱讀

    多層感知器、全連接網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)介紹

    多層感知器MLP)、全連接網(wǎng)絡(luò)(FCN)和深度神經(jīng)網(wǎng)絡(luò)(DNN)在神經(jīng)網(wǎng)絡(luò)領(lǐng)域中扮演著重要角色
    的頭像 發(fā)表于 07-11 17:25 ?8242次閱讀

    多層感知器的基本原理

    多層感知器MLP, Multi-Layer Perceptron)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)引入一個(gè)或多個(gè)隱藏層來(lái)擴(kuò)展單層感知器的功能,從
    的頭像 發(fā)表于 07-19 17:20 ?1631次閱讀
    主站蜘蛛池模板: 免费看美女午夜大片 | 黄色片网站观看 | 又粗又硬又大久久久 | 午夜看一级特黄a大片 | 天天操天天干天天爱 | 午夜影视啪啪免费体验区入口 | 99久久婷婷免费国产综合精品 | 国产人成午夜免费噼啪视频 | 国产va精品免费观看 | 久久精品伊人波多野结 | 国产三级精品播放 | 怡红院精品视频 | 狠狠操天天操视频 | 永久免费观看黄网站 | 五月婷婷丁香 | 国产色网址| 黄色在线视频网 | 亚洲高清视频一区 | 午夜va| 中文在线最新版天堂bt | 成人a毛片手机免费播放 | 人人天天爱天天做天天摸 | 人阁色第四影院在线观看 | 97影院理伦在线观看 | 欧美精品久久天天躁 | 中国日韩欧美中文日韩欧美色 | 日本黄色视 | 国产精品五月天 | 欧美成人观看免费全部完小说 | 男人j进女人j免费视频视频 | 日日插天天操 | 一级aa 毛片高清免费看 | 亚洲婷婷影院 | 永久看日本大片免费 | 91大神精品长腿在线观看网站 | 6080yy午夜不卡一二三区 | 五月天久久婷婷 | 日本三级日产三级国产三级 | 国产精品午夜剧场 | 免费在线一区二区三区 | 包你爽综合网 |