在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習應用在超分辨率領域的9個模型

8g3K_AI_Thinker ? 來源:未知 ? 作者:胡薇 ? 2018-07-13 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

吳曉然,聲網(wǎng)高級視頻工程師,專注于視頻編解碼及相關技術研究,個人技術興趣包括多媒體架構、深度學習

在AlphaGo對弈李世石、柯潔之后,更多行業(yè)開始嘗試通過機器學習優(yōu)化現(xiàn)有技術方案。其實對于實時音視頻來講,對機器學習的研究已有多年,我們曾分享過的實時圖像識別只是其中一種應用。我們還可以利用深度學習來做超分辨率。我們這次就分享一下用于超分辨率的深度學習基本框架,以及衍生出的各種網(wǎng)絡模型,其中有些網(wǎng)絡在滿足實時性方面也有不錯的表現(xiàn)。

▌機器學習與深度學習

對于接觸機器學習與深度學習較少的開發(fā)者,可能會搞不清兩者的差別,甚至認為機器學習就是深度學習。其實,我們用一張圖可以簡單區(qū)分這個概念。

上世紀50年代,就有人工智能的概念,后來也有一些較基礎的應用,比如國際象棋。但到了70年代,由于硬件性能的制約,以及訓練數(shù)據(jù)集的匱乏,使得人工智能經(jīng)歷了一段低谷。人工智能包括了很多,比如機器學習、調(diào)度算法、專家系統(tǒng)等。到了80年代才開始出現(xiàn)更多機器學習的應用,比如利用算法來分析數(shù)據(jù),并進行判斷或預測。機器學習包括了邏輯樹、神經(jīng)網(wǎng)絡等。而深度學習,則是機器學習中的一種方法,源于神經(jīng)網(wǎng)絡。

▌超分辨率是什么?

超分辨率是基于人類視覺系統(tǒng)提出的概念。1981年諾貝爾醫(yī)學獎獲獎者David Hubel、Torsten Wiesel,發(fā)現(xiàn)人類視覺系統(tǒng)的信息處理方式是分層級的。第一層是原始的數(shù)據(jù)輸入。當人看到一個人臉圖像時,首先會先識別出其中的點、線等邊緣。然后進入第二層,會識別出圖像中一些基本的組成元素,比如眼睛、耳朵、鼻子。最后,會生成一個對象模型,也就是一張張完整的臉。

而我們在深度學習中的卷積神經(jīng)網(wǎng)絡(如下圖為例),就是模仿了人類視覺系統(tǒng)的處理過程。正因此,計算機視覺是深度學習最佳的應用領域之一。超分辨就是計算機視覺中的一個經(jīng)典應用。

超分辨率是通過軟件或硬件方法,提高圖像分辨率的一種方法。它的核心思想,就是用時間帶寬換取空間分辨率。簡單來講,就是在我無法得到一張超高分辨率的圖像時,我可以多拍幾張圖像,然后將這一系列低分辨率的圖像組成一張高分辨的圖像。這個過程叫超分辨率重建。

為什么超分辨率可以通過多拍幾張圖像,就能提高圖片分辨率呢?

這牽涉到抖動。我們經(jīng)常說的拍照防抖動,其實防的是較明顯的抖動,但微小的抖動始終存在。在拍攝同一場景的每張圖像之間,都有細微差別,這些微小的抖動其實都包含了這個場景的額外信息,如果將他們合并,就會得到一張更為清晰的圖像。

有人可能會問,我們手機都能前后置兩千萬,為什么需要超分辨率技術呢?這種技術應用場景是不是不多?

其實不是。了解攝影的人都知道。在相同的感光元器件上,拍攝的圖像分辨率越高,在感光元器件上,單個像素占的面積越小,那會導致通光率越低,當你的像素密度到達一定程度后,會帶來大量噪聲,直接影響圖像質(zhì)量。超分辨率就可以解決這種問題。超分辨率有很多應用,比如:

數(shù)字高清,通過這種方法來提高分辨率

顯微成像:合成一系列顯微鏡下的低分辨率圖像來得到高分辨率圖像

衛(wèi)星圖像:用于遙感衛(wèi)星成像,提升圖像精度

視頻復原:可以通過該技術復原視頻,例如老電影

但是,有很多情況下,我們只有一張圖像,無法拍攝多張,那么如何做超分辨率呢?這就需要用到機器學習了。比較典型的例子,就是在2017年Google 提出的一項“黑科技”。他們可以通過機器學習來消除視頻圖像中的馬賽克。當然,這項黑科技也有一定限制,以下圖為例,它訓練的神經(jīng)網(wǎng)絡是針對人臉圖像的,那么如果你給的馬賽克圖像不是人臉,就無法還原。

▌超分辨率神經(jīng)網(wǎng)絡原理

超分辨率神經(jīng)網(wǎng)絡(Super-Resolution CNN,SRCNN)是深度學習應用在超分辨率領域的首個模型。原理比較簡單。它有三層神經(jīng)網(wǎng)絡,包括:

特征提取:低分辨率圖像經(jīng)過二項式差值得到模糊圖像,從中提取圖像特征,Channel 為3,卷積核大小為f1*f1,卷積核個數(shù)為 n1;

非線性映射:將低分辨率圖片特征映射到高分辨率,卷積核大小1*1;

圖像重構:恢復細節(jié),得到清晰的高分辨率圖像,卷積核為f3*f3;

參數(shù)調(diào)節(jié)是神經(jīng)網(wǎng)絡中比較玄的部分,也是最為人詬病的部分。很多人認為參數(shù)調(diào)節(jié)很像老中醫(yī)看病,通常缺少理論依據(jù)。在這里列出了幾個在 n1 取不同值的時候,所用的訓練時間和峰值信噪比(PSNR,用于判斷圖片質(zhì)量的參數(shù),越高越好)。

在訓練中,使用均方誤差(Mean Squared Error, MSE)作為損失函數(shù),有利于獲得較高的PSNR。

訓練結果如何呢?在下表中,列出了幾個傳統(tǒng)方法與 SRCNN 方法的結果對比。最左一列是圖片集,右側(cè)分別列出了每個方法的所用訓練時間和圖片峰值信噪比。可以看出,盡管有些圖片,傳統(tǒng)方法得出的結果更優(yōu)于深度學習,但是總體來講,深度學習稍勝一籌,甚至所需時間更短。

有人說一圖勝千言。那么實際圖片效果如何呢?我們可以看下面兩組圖片。每組第一張是小分辨率的原圖,后面通過不同的方法來實現(xiàn)高分辨率的大圖。相比傳統(tǒng)方法,SRCNN 的圖片邊緣更加清晰,細節(jié)恢復的更好一些。以上就是最初的超分辨率的深度學習模型。

▌9個超分辨率神經(jīng)網(wǎng)絡模型

SRCNN 是第一個超分辨率的神經(jīng)網(wǎng)絡模型。在 SRCNN 這個模型出現(xiàn)后,更多應用于超分辨率的神經(jīng)網(wǎng)絡模型。我們以下分享幾個:

FSRCNN

相對 SRCNN,這個方法不需要對原始圖片使用二項式差值,可以直接對小分辨率圖像進行處理。在提取特征值之后,縮小圖片,然后經(jīng)過 mapping、expending、反卷積層,然后得到高分辨率圖片。它好處是,縮小圖片可以降低訓練的時間。同時,如果你需要得到不同分辨率的圖片,單獨訓練反卷積層即可,更省時。

ESPCN

這個模型是基于小圖進行訓練。最后提取了 r2 個 Channel。比如說,我想將圖片擴大到原圖的3倍,那么 r 就是縮放因子 3,Channel 為9。通過將一個像素擴充為一個3x3的矩陣,模擬為一個像素的矩陣,來達到超分辨率的效果。

對實時視頻進行超分辨率處理的實驗結果也非常理想。對 1080 HD 格式的視頻進行3倍放大,SRCNN 每幀需要0.435s,而 ESPCN 則只需0.038s。

VDSR

這是2016年獲獎的一個模型。我們做視頻編解碼的都知道,圖像之間是存在殘差的。它認為原始的低分辨率圖片與高分辨率圖片之間,低頻分量幾乎一樣,缺失的是高頻分量,即圖片細節(jié)。那么訓練的時候,只需要針對高頻分量進行訓練就行了。

所以它的輸入分為兩部分,一是將整張原圖作為一個輸入,另一部分則是對殘差進行訓練然后得到一個輸入,將兩者加起來就得到一張高分辨率圖像。這樣就大大加快了訓練速度,收斂效果也更好。

DRCN

它還是分為三層。但是在非線性映射這一層,它使用了一個遞歸網(wǎng)絡,也就是說,數(shù)據(jù)循環(huán)多次地通過該層。將這個循環(huán)展開的話,等效于使用同一組參數(shù)的多個串聯(lián)的卷積層。

RED

每一個卷積層都對應一個非卷積層。簡單來講,可以理解為是將一張圖片進行了編碼,然后緊接著進行解碼。它的優(yōu)勢在于解決了梯度消失的問題,而且能恢復出更干凈的圖片。它和 VDSR 有相似的思路。中間卷積層與反卷積層的訓練是針對原始圖片與目標圖片的殘差。最后原圖會與訓練輸出結果相加,得到高分辨率的圖片。

DRRN

在這個模型里你可以看到DRCN、VDSR的影子。它采用了更深的網(wǎng)絡結構來提升性能。其中有很多個圖片增強層。可以理解為,一張模糊的圖片,經(jīng)過多個增強層,一級級變得更加清晰,最終得出高清圖片。大家可以在名為tyshiwo的 Github 上找到源碼。

LapSRN

LapSRN 的特別之處在于引入了一個分級的網(wǎng)絡。每一級都只對原圖放大兩倍,然后加上殘差獲得一個結果。如果對圖片放大8倍的話,這樣處理的性能會更高。同時,在每一級處理時,都可以得到一個輸出結果。

SRDenseNet

它引入了一個 Desent Block 的結構。上一層網(wǎng)絡訓練出的特征值會傳遞到下一層網(wǎng)絡,所有特征串聯(lián)起來。這樣做的好處是減輕梯度消失問題、減少參數(shù)數(shù)量。而且,后面的層可以復用之前訓練得出的特征值,不需要重復訓練。

SRGAN

它可以利用感知損失(perceptual loss)和對抗損失(adversarial loss)來提升恢復出的圖片的。

在這個模型中有兩個網(wǎng)絡,一個是生成網(wǎng)絡,另一個是判別網(wǎng)路,前者會生成高分辨率圖片,后者則會判斷這張圖是否是原圖,如果結果為“否”,那么前者會再次進行訓練、生成,直到可以騙過判別網(wǎng)絡。

以上這些神經(jīng)網(wǎng)絡模型都可以應用于視頻處理中,但實際應用還需要考慮很多因素,比如系統(tǒng)平臺、硬件配置、性能優(yōu)化。其實,除了超分辨率,機器學習與實時音視頻有很多可結合的應用場景,比如音視頻體驗優(yōu)化、鑒黃、QoE 改進等。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:普通視頻轉(zhuǎn)高清:10個基于深度學習的超分辨率神經(jīng)網(wǎng)絡

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    分辨率圖像重建方法研究

    壓縮域中的重建方法,指出了各自的優(yōu)點與不足。研究表明,分辨率重建具有廣泛的應用前景,其成像模型、運動估計、重建算法和實時實現(xiàn)將是今后研究的重點。關鍵詞:
    發(fā)表于 03-14 17:08

    深度融合模型的特點

    深度融合模型的特點,背景深度學習模型在訓練完成之后,部署并應用在生產(chǎn)環(huán)境的這一步至關重要,畢竟訓
    發(fā)表于 07-16 06:08

    基于混合先驗模型分辨率重建

    在L1范數(shù)圖像分辨率重建算法框架下,引入?yún)?shù)自適應估計,結合差分圖像統(tǒng)計特性和概率分布模型提出一種基于混合先驗模型
    發(fā)表于 04-11 08:42 ?24次下載

    深度反卷積神經(jīng)網(wǎng)絡的圖像分辨率算法

    圖像分辨率一直是底層視覺領域的研究熱點。現(xiàn)有基于卷積神經(jīng)網(wǎng)絡的方法直接利用傳統(tǒng)網(wǎng)絡模型,未對圖像分辨
    發(fā)表于 12-15 10:41 ?2次下載

    數(shù)據(jù)外補償?shù)?b class='flag-5'>深度網(wǎng)絡分辨率重建

    分辨率重建結果.為了克服歧義性造成的高頻細節(jié)損失。本文提出了一種基于深度網(wǎng)絡。利用在線檢索的數(shù)據(jù)進行高頻信息補償?shù)膱D像分辨率重建算法.該方
    發(fā)表于 12-15 14:34 ?0次下載

    基于多字典學習分辨率重建

    針對單一冗余字典在稀疏表示圖像分辨率重建結果出現(xiàn)不清晰、偽影以及重建過程編碼效率不高、運算時間過長的問題,提出一種基于多字典學習和圖像塊映射的
    發(fā)表于 12-19 15:56 ?0次下載

    基于圖像分辨率SR極限學習機ELM的人臉識別

    極低分辨率圖像本身包含的判別信息少且容易受到噪聲的干擾,在現(xiàn)有的人臉識別算法下識別率較低。為了解決這一問題,提出一種基于圖像分辨率(SR)極限學習機(ELM)的人臉識別算法。首先,從
    發(fā)表于 12-25 11:23 ?0次下載
    基于圖像<b class='flag-5'>超</b><b class='flag-5'>分辨率</b>SR極限<b class='flag-5'>學習</b>機ELM的人臉識別

    分辨率神經(jīng)網(wǎng)絡原理

    而我們在深度學習中的卷積神經(jīng)網(wǎng)絡(如下圖為例),就是模仿了人類視覺系統(tǒng)的處理過程。正因此,計算機視覺是深度學習最佳的應用領域之一。
    的頭像 發(fā)表于 07-12 15:07 ?7294次閱讀
    <b class='flag-5'>超</b><b class='flag-5'>分辨率</b>神經(jīng)網(wǎng)絡原理

    深度學習助攻分辨率 商湯科技聯(lián)手vivo X23幻彩版突破畫質(zhì)“高地”

    用戶帶來了更加高清、震撼的拍攝畫質(zhì)。該項技術來自全球領先的人工智能平臺公司商湯科技,這也是基于深度學習算法的分辨率技術在國內(nèi)手機上的首次落地。 商湯科技最早于2014年Europea
    發(fā)表于 12-10 10:09 ?1476次閱讀

    如何使用深度殘差生成對抗網(wǎng)絡設計醫(yī)學影像分辨率算法

    針對醫(yī)學影像分辨率重建過程中細節(jié)丟失導致的模糊問題,提出了一種基于深度殘差生成對抗網(wǎng)絡( GAN)的醫(yī)學影像分辨率算法。首先,算法包括生
    發(fā)表于 01-02 16:59 ?5次下載
    如何使用<b class='flag-5'>深度</b>殘差生成對抗網(wǎng)絡設計醫(yī)學影像<b class='flag-5'>超</b><b class='flag-5'>分辨率</b>算法

    深度學習模型壓縮與加速綜述

    目前在深度學習領域分類兩派別,一派為學院派,研究強大、復雜的模型網(wǎng)絡和實驗方法,為了追求更高的性能;另一派為工程派,旨在將算法更穩(wěn)定、高效
    的頭像 發(fā)表于 06-08 17:26 ?5538次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>壓縮與加速綜述

    使用深度學習來實現(xiàn)圖像分辨率

    今天給大家介紹一篇圖像分辨率鄰域的綜述,這篇綜述總結了圖像分辨率領域的幾方面:problem settings、數(shù)據(jù)集、performance metrics...
    的頭像 發(fā)表于 12-14 23:42 ?1786次閱讀

    Imagination與Visidon合作共同開辟AI分辨率技術未來

    Imagination Technologies與Visidon Oy聯(lián)合推動移動、數(shù)字電視和汽車市場的嵌入式應用向基于深度學習分辨率過渡。
    的頭像 發(fā)表于 05-19 15:12 ?1597次閱讀

    什么是基于深度學習分辨率

    基于深度學習分辨率是將學習的上采樣(up-sampling)函數(shù)應用于圖像的過程,目的是增強圖像中現(xiàn)有的像素數(shù)據(jù)或生成合理的新像素數(shù)據(jù),
    的頭像 發(fā)表于 05-24 09:33 ?3253次閱讀
    什么是基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>超</b><b class='flag-5'>分辨率</b>

    直接飛行時間(DToF)視頻的深度一致分辨率重建

    本文提出從兩方面解決dToF數(shù)據(jù)的空間模糊:利用RGB-dToF視頻序列中的多幀信息融合和dToF直方圖信息。我們設計了dToF視頻分辨網(wǎng)絡DVSR,輸入是高分辨率RGB圖像序列和
    的頭像 發(fā)表于 08-30 15:15 ?1917次閱讀
    直接飛行時間(DToF)視頻的<b class='flag-5'>深度</b>一致<b class='flag-5'>超</b><b class='flag-5'>分辨率</b>重建
    主站蜘蛛池模板: 男女同床爽爽视频免费 | 四虎在线视频 | 在线免费观看视频你懂的 | 亚洲一区二区中文字幕 | 日韩一级影院 | 啪啪免费网站 | 天堂黄网 | 色噜噜狠狠大色综合 | 72种姿势欧美久久久久大黄蕉 | 欧美私人网站 | 天天摸夜夜爽 | 夜夜夜久久久 | 狠狠色噜噜狠狠色综合久 | 8天堂资源在线 | 福利影院在线 | 国产毛片农村妇女aa板 | 亚洲午夜一级毛片 | 日韩a无吗一区二区三区 | 午夜久久久精品 | 成人精品一区二区不卡视频 | 天天槽任我槽免费 | 欧美香蕉在线 | 给个网站可以在线观看你懂的 | 韩国电影天堂 | 欧美一级高清片在线 | 午夜网站视频 | 99久久99久久精品国产 | 国产一级特黄高清免费大片 | 欧美日韩一区二区不卡 | 天天操天天干天天操 | 四虎永久在线观看视频精品 | 精品香港经典三级在线看 | 国产papa | 欧美视频精品一区二区三区 | 亚洲 自拍 欧美 综合 | 色爱区综合激情五月综合色 | 最新版天堂资源官网 | 久久精品免视看国产成人2021 | 国产98色在线 | 五月婷婷一区二区 | 午夜性|