在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的圖像塊型超分辨重建的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-03-26 11:15 ? 次閱讀

分辨率極限,無(wú)論對(duì)于圖像重建或是圖像后處理算法的研究者,都是一項(xiàng)無(wú)法回避的技術(shù)指標(biāo)。在實(shí)際的應(yīng)用場(chǎng)景中,受限于圖像采集設(shè)備成本、視頻圖像傳輸帶寬,抑或是成像模態(tài)本身的技術(shù)瓶頸,我們并不是每一次都有條件獲得邊緣銳化,無(wú)塊狀模糊的大尺寸高清圖像。在這種需求背景下,超分辨重建技術(shù)應(yīng)運(yùn)而生。

圖1:圖片壓縮與傳輸

應(yīng)用場(chǎng)景I:圖片壓縮與傳輸,即以較低的碼率進(jìn)行圖像編碼,在傳輸過(guò)程中可極大節(jié)省轉(zhuǎn)發(fā)服務(wù)器的流量帶寬,在客戶端解碼得到相對(duì)低清晰度的圖片,最后通過(guò)超分辨重建技術(shù)處理獲得高清晰度圖片

圖2:生物組織成像

應(yīng)用場(chǎng)景II:生物組織成像 左圖:光聲顯微成像圖像 右圖:光聲超分辨顯微圖像,細(xì)微的蜜蜂翅膀紋理清晰可見(jiàn)

傳統(tǒng)超分辨重建技術(shù)大體上可分為4類,分別是預(yù)測(cè)型(prediction-based), 邊緣型(edge-based), 統(tǒng)計(jì)型(statistical)和圖像塊型(patch-based/example-based)的超分辨重建方法。

我們選擇了4篇基于深度學(xué)習(xí)的圖像塊型超分辨重建的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析,從中我們可以看出研究者們對(duì)于超分辨任務(wù)的不同的理解與解決問(wèn)題思路。在2012年AlexNet以15.4%的歷史性超低的分類錯(cuò)誤率獲得ImageNet大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽年度冠軍,吹響了深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域爆炸發(fā)展的號(hào)角之后。超分辨重建技術(shù)也開(kāi)始采用深度學(xué)習(xí)的思想,以期獲得更優(yōu)的算法表現(xiàn)。

SRCNN

SRCNN是基于深度學(xué)習(xí)的超分辨重建領(lǐng)域的開(kāi)山之作,繼承了傳統(tǒng)機(jī)器學(xué)習(xí)領(lǐng)域稀疏編碼的思想,利用三層卷積層分別實(shí)現(xiàn):

圖像的圖像塊抽取與稀疏字典建立

圖像高、低分辨率特征之間的非線性映射

高分辨率圖像塊的重建

具體地,假設(shè)需要處理的低分辨率圖片的尺寸為H × W × C, 其中H、W、C分別表示圖片的長(zhǎng)、寬和通道數(shù);SRCNN第一層卷積核尺寸為C × f1 × f1 × n1,可以理解為在低分辨率圖片上滑窗式地提取f1 × f1的圖像塊區(qū)域進(jìn)行n1種類型的卷積操作。在全圖范圍內(nèi),每一種類型卷積操作都可以輸出一個(gè)特征向量,最終n1個(gè)特征向量構(gòu)成了低分辨率圖片的稀疏表示的字典,字典的維度為H1 × W1 × n1;SRCNN第二層卷積核尺寸為n1 × 1 × 1 × n2,以建立由低分辨率到高分辨率稀疏表示字典之間的非線性映射,輸出的高分辨率稀疏字典的維度為H1 × W1 × n2,值得注意的是在這一步中SRCNN并未采用全連接層(fully connected layer)來(lái)進(jìn)行特征圖或是稀疏字典之間的映射,而是采用1x1卷積核,從而使得空間上每一個(gè)像素點(diǎn)位置的映射都共享參數(shù),即每一個(gè)空間位置以相同的方式進(jìn)行非線性映射; SRCNN第三層卷積核尺寸為n2 × f3 × f3 × C,由高分辨率稀疏字典中每一個(gè)像素點(diǎn)位置的n2 × 1向量重建f3 × f3圖像塊,圖像塊之間相互重合覆蓋,最終實(shí)現(xiàn)圖片的超分辨率重建。

圖3:SRCNN的三層卷積結(jié)構(gòu)

ESPCN

在SRCNN將CNN引入超分辨率重建領(lǐng)域之后,研究者們開(kāi)始考慮如何利用“卷積”來(lái)解決更深入的問(wèn)題。

如果對(duì)一幅高分辨率圖片做高斯平滑或是降采樣可以等效為卷積操作,那么由降采樣后低分辨率圖片恢復(fù)高分辨率的過(guò)程則相應(yīng)的等效為反卷積操作(deconvolution)。此時(shí)我們的計(jì)算任務(wù)是學(xué)習(xí)合適的解卷積核,從低分辨率圖片中恢復(fù)高分辨率圖像。

CNN中反卷積層的標(biāo)準(zhǔn)做法如圖4所示,對(duì)一幅低分辨率圖片填充零值(zero padding),即以每一個(gè)像素點(diǎn)位置為中心,周圍2×2或3×3鄰域填充0,再以一定尺寸的卷積核進(jìn)行卷積操作。

圖4:標(biāo)準(zhǔn)反卷積層實(shí)現(xiàn)示意圖

但是標(biāo)準(zhǔn)反卷積操作的弊端是顯而易見(jiàn)的,首先,填充的零值并不包含任何圖像相關(guān)的有效信息,其次填充后的圖片卷積操作的計(jì)算復(fù)雜度有所增加。

在這種情況下,Twitter圖片與視頻壓縮研究組將sub-pixel convolution的概念引入SRCNN中。

圖5:Efficient Sub-Pixel Convolutional Neural Network (ESPCN)網(wǎng)絡(luò)結(jié)構(gòu)

Sub-Pixel核心思想在于對(duì)于任意維度為H × W × C的圖像,標(biāo)準(zhǔn)反卷積操作輸出的特征圖維度為rH × rW × C,其中r為超分辨系數(shù)即圖片尺寸放大的倍數(shù),而sub-pixel的輸出特征圖維度為H × W × C × r2,即令特征圖與輸入圖片的尺寸保持一致,但增加卷積核的通道數(shù),既使得輸入圖片中鄰域像素點(diǎn)的信息得到有效利用,還避免了填充0引入的計(jì)算復(fù)雜度增加。

Perceptual Loss

相較于其他機(jī)器學(xué)習(xí)任務(wù),如物體檢測(cè)(object detection)或者實(shí)例分割(instance segmentation),超分辨重建技術(shù)中學(xué)習(xí)任務(wù)的損失函數(shù)的定義通常都相對(duì)簡(jiǎn)單粗暴,由于我們重建的目的是為了使得重建的高分辨率圖片與真實(shí)高清圖片之間的峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)盡可能的大,因此絕大多數(shù)的基于深度學(xué)習(xí)的超分辨重建研究都直接的將損失函數(shù)設(shè)計(jì)為平均均方差(Mean Square Error, MSE),即計(jì)算兩幅圖片所有對(duì)應(yīng)像素位置點(diǎn)之間的均方差,由于MSE Loss要求像素點(diǎn)之間位置一一對(duì)應(yīng),因此又被稱作Per-Pixel Loss。

但隨著技術(shù)的發(fā)展,研究者慢慢發(fā)現(xiàn)Per-Pixel Loss的局限性。考慮一個(gè)極端的情況,將高清原圖向任意方向偏移一個(gè)像素,事實(shí)上圖片本身的分辨率與風(fēng)格并未發(fā)生太大的改變,但Per-Pixel Loss卻會(huì)因?yàn)檫@一個(gè)像素的偏移而出現(xiàn)顯著的上升,因此Per-Pixel Loss的約束并不能反應(yīng)圖像高級(jí)的特征信息(high-level features)。

因此研究圖像風(fēng)格遷移的研究者們相對(duì)于Per-Pixel Loss在2016年的CVPR會(huì)議上提出了Perceptual Loss的概念。

圖6:基于Perceptual Loss的全卷積網(wǎng)絡(luò)結(jié)構(gòu)

基于Per-Pixel Loss的超分辨重建網(wǎng)絡(luò)目標(biāo)在于直接最小化高清原圖與超分辨重建圖像之間的差異,使得超分辨重建圖像逐步逼近原圖的清晰效果。但Perceptual Loss最小化的是原圖與重建圖像的特征圖之間的差異,為了提高計(jì)算效率,Perceptual Loss中的特征圖由固定權(quán)重值的卷積神經(jīng)網(wǎng)絡(luò)提取,例如在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練得到的VGG16網(wǎng)絡(luò),如圖7所示,不同深度的卷積層提取的特征信息不同,反映的圖像的紋理也不同。

圖7:不同深度的卷積層提取的圖片特征示意圖

因此研究者們?cè)谟?xùn)練超分辨神經(jīng)網(wǎng)絡(luò)時(shí),利用跨間隔的卷積層(strided convolution layer)代替池化層(pooling layer)構(gòu)建全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network, FCN)進(jìn)行超分辨重建,并在卷積層之間添加殘差結(jié)構(gòu)(residual block)以在保證網(wǎng)絡(luò)擬合性能的前提下加深網(wǎng)絡(luò)深度獲得更佳表現(xiàn)。最終利用VGG16網(wǎng)絡(luò)對(duì)原圖與重建圖像進(jìn)行特征提取,最小化兩者特征圖之間的差異使得超分辨重建圖像不斷逼近原圖的分辨率。

RAISR

前面提到的幾種典型的圖像塊型(也被稱作樣例型)超分辨技術(shù),都是在高低分辨率圖像塊一一對(duì)應(yīng)的數(shù)據(jù)基礎(chǔ)上,學(xué)習(xí)由低分辨率到高分辨率圖像塊的映射。具體的來(lái)說(shuō),通常這種映射是一系列的濾波器,針對(duì)輸入圖片不同像素位置點(diǎn)的不同的紋理特征來(lái)選擇適當(dāng)?shù)臑V波器進(jìn)行超分辨重建。基于這種思想,Google于2016年在SRCNN,A+以及ESPCN等超分辨研究的基礎(chǔ)上發(fā)布了RAISR算法。

該算法主打高速的實(shí)時(shí)性能與極低的計(jì)算復(fù)雜度,核心思想在于利用配對(duì)的高低分辨率圖像塊訓(xùn)練得到一系列的濾波器,在測(cè)試時(shí)根據(jù)輸入圖片的局部梯度統(tǒng)計(jì)學(xué)特性索引選擇合適的濾波器完成超分辨重建。因此RAISR算法由兩部分組成,第一部分是訓(xùn)練高低分辨率映射(LR/HR mapping)的濾波器,第二部分是建立濾波器索引機(jī)制(hashing mechanism)。

圖8:RAISR 2倍上采樣濾波器

下圖為RAISR在2x上采樣率時(shí)與SRCNN,A+等超分辨算法的技術(shù)指標(biāo)對(duì)比。左為PSNR-runtime指標(biāo),右圖為SSIM-runtime指標(biāo)。

圖9:RAISR在2x上采樣率時(shí)與SRCNN,A+等超分辨算法的技術(shù)指標(biāo)對(duì)比

結(jié)語(yǔ)

超分辨率重建在醫(yī)學(xué)影像處理、壓縮圖像增強(qiáng)等方面具有廣闊的應(yīng)用前景,近年來(lái)一直是深度學(xué)習(xí)社區(qū)研究的熱點(diǎn)領(lǐng)域。卷積和殘差構(gòu)件的改進(jìn)、不同種類Perceptual Loss的進(jìn)一步分析、對(duì)抗生成網(wǎng)絡(luò)用于超分辨率重建的探索等都是值得關(guān)注的方向。相信我們很快就能看到深度學(xué)習(xí)在超分辨率重建領(lǐng)域的更多重大進(jìn)展。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:一文概覽基于深度學(xué)習(xí)的超分辨率重建架構(gòu)

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    分辨圖像重建方法研究

    分辨圖像重建方法研究分辨圖像
    發(fā)表于 03-14 17:08

    分辨圖像重建方法研究

    分辨圖像重建就是由低分辨圖像序列來(lái)估計(jì)高分辨
    發(fā)表于 03-14 08:33 ?47次下載

    基于POCS算法的圖像分辨重建

    分辨技術(shù)是指通過(guò)融合多幅模糊、變形、頻譜混疊的低分辨圖像來(lái)重建一幅高
    發(fā)表于 11-08 17:03 ?40次下載

    序列圖像分辨重建算法研究

    分辨重建(Super-resolution Reconstruction,SR)技術(shù)是提高圖像和視頻
    發(fā)表于 03-08 14:56 ?32次下載
    序列<b class='flag-5'>圖像</b><b class='flag-5'>超</b><b class='flag-5'>分辨</b>率<b class='flag-5'>重建</b>算法研究

    一種增強(qiáng)的單幅圖像學(xué)習(xí)分辨方法

    特征和對(duì)應(yīng)高分辨圖像的中心像素,并給圖像中不同像素點(diǎn)賦予不同的權(quán)重,強(qiáng)調(diào)中心像素點(diǎn)在構(gòu)建
    發(fā)表于 11-28 10:09 ?1次下載
    一種增強(qiáng)的單幅<b class='flag-5'>圖像</b>自<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>超</b><b class='flag-5'>分辨</b>方法

    結(jié)合壓縮感知與非局部信息的圖像分辨重建

    針對(duì)現(xiàn)有的分辨重建算法只考慮圖像的灰度信息,而忽略了紋理信息,并且大多數(shù)非局部方法在強(qiáng)調(diào)非局部信息的同時(shí),沒(méi)有考慮局部信息的問(wèn)題,提出
    發(fā)表于 12-13 10:44 ?1次下載

    數(shù)據(jù)外補(bǔ)償?shù)?b class='flag-5'>深度網(wǎng)絡(luò)分辨重建

    單張圖像分辨重建受到多對(duì)一映射的困擾,對(duì)于給定的低分辨圖像
    發(fā)表于 12-15 14:34 ?0次下載

    基于多字典學(xué)習(xí)分辨重建

    針對(duì)單一冗余字典在稀疏表示圖像分辨重建結(jié)果出現(xiàn)不清晰、偽影以及重建過(guò)程編碼效率不高、運(yùn)算時(shí)間過(guò)長(zhǎng)的問(wèn)題,提出一種基于多字典
    發(fā)表于 12-19 15:56 ?0次下載

    最小二乘規(guī)則的單幅圖像分辨算法

    差異性的角度提出了一種使用迭代最小二乘字典學(xué)習(xí)算法(ILS-DLA),并使用錨定鄰域回歸(ANR)進(jìn)行圖像重建的單幅圖像
    發(fā)表于 12-22 11:04 ?0次下載
    最小二乘規(guī)則的單幅<b class='flag-5'>圖像</b><b class='flag-5'>超</b><b class='flag-5'>分辨</b>算法

    序列圖像分辨重建

    進(jìn)行配準(zhǔn),使圖像的配準(zhǔn)精度達(dá)到亞像素級(jí),進(jìn)而可以利用圖像間的互補(bǔ)信息提高圖像分辨率;其次利用L1和L2混合范式的優(yōu)點(diǎn),用BTV正則化算法解決
    發(fā)表于 01-15 15:42 ?0次下載

    基于鄰域特征學(xué)習(xí)的單幅圖像分辨重建

    針對(duì)圖像重建過(guò)程中待插值點(diǎn)灰度估計(jì)不準(zhǔn)確的問(wèn)題,提出一種基于鄰域特征學(xué)習(xí)的單幅圖像
    發(fā)表于 02-07 15:59 ?1次下載
    基于鄰域特征<b class='flag-5'>學(xué)習(xí)</b>的單幅<b class='flag-5'>圖像</b><b class='flag-5'>超</b><b class='flag-5'>分辨</b><b class='flag-5'>重建</b>

    基于結(jié)構(gòu)自相似性和形變特征的單幅圖像分辨率算法

    率訓(xùn)練樣本不足的缺陷;接著,通過(guò)樣例的幾何形變提升了局限性的內(nèi)部字典大小;最后,為了提升重建圖片的抗噪性,利用組稀疏學(xué)習(xí)字典來(lái)重建圖像。實(shí)
    發(fā)表于 12-02 16:34 ?8次下載
    基于結(jié)構(gòu)自相似性和形變<b class='flag-5'>塊</b>特征的單幅<b class='flag-5'>圖像</b><b class='flag-5'>超</b><b class='flag-5'>分辨</b>率算法

    基于復(fù)合的深度神經(jīng)網(wǎng)絡(luò)的圖像分辨重建

    針對(duì)現(xiàn)有單圖像分辨重建時(shí)主要采用的簡(jiǎn)單鏈?zhǔn)蕉询B的單一網(wǎng)絡(luò)存在層間聯(lián)系弱、網(wǎng)絡(luò)關(guān)注點(diǎn)單一以及分層特征不能充分利用等問(wèn)題,提出了一種復(fù)合的
    發(fā)表于 04-13 10:35 ?5次下載
    基于復(fù)合的<b class='flag-5'>深度</b>神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>圖像</b><b class='flag-5'>超</b><b class='flag-5'>分辨</b>率<b class='flag-5'>重建</b>

    基于非局部稀疏表示的圖像分辨重建算法

    基于稀疏表示模型的彩色圖像分辨重建方法通常采用基于圖像的稀疏編碼過(guò)程,易導(dǎo)致稀疏表示不穩(wěn)定
    發(fā)表于 05-25 16:43 ?5次下載

    什么是基于深度學(xué)習(xí)分辨

    基于深度學(xué)習(xí)分辨率是將學(xué)習(xí)的上采樣(up-sampling)函數(shù)應(yīng)用于圖像的過(guò)程,目的是增強(qiáng)
    的頭像 發(fā)表于 05-24 09:33 ?3051次閱讀
    什么是基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>超</b><b class='flag-5'>分辨</b>率
    主站蜘蛛池模板: 美女黄色毛片 | 四虎影院免费视频 | 四虎在线精品免费高清在线 | 国产精品自线在线播放 | 色婷婷综合久久久 | 久久久久99精品成人片三人毛片 | 国产日本三级在线播放线观看 | 色综合天天综合给合国产 | 美女色黄一男一女 | 色综合久久综合 | 日本大片在线看 | 天天操夜| 伊人久久综合网站 | 国产精品成人在线播放 | 插白浆| 天堂影院jav成人天堂免费观看 | 色伊伊| 色综合天天综合网看在线影院 | 国产激情片 | 亚洲色图在线观看视频 | 未成人禁止视频高清在线观看 | 男人天堂网2021 | 萝l在线精品社区资源 | 日本www色 | 国产综合视频在线 | 国产精品资源在线观看 | 侵犯希崎中文字幕在线 | 欧美另类高清xxxxx | 手机看片福利日韩国产 | 欧美色欧美亚洲高清在线视频 | 末发育女一区二区三区 | 亚洲精品国产自在久久出水 | 国产黄mmd在线观看免费 | 好爽毛片一区二区三区四 | 婷婷网五月天天综合天天爱 | 男人天堂网在线视频 | 亚洲美女视频在线观看 | 天天澡天天摸天天添视频 | 国产精品欧美一区二区三区不卡 | 激情综合色综合啪啪开心 | 女人双腿搬开让男人桶 |