在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的框架

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-04-17 16:28 ? 次閱讀

來(lái)自瑞士蘇黎世聯(lián)邦理工學(xué)院的研究人員們提出了一種基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的框架,可以以高畫(huà)質(zhì)壓縮圖像,并保證圖像尺寸降到最小。以下是論智對(duì)原論文的大致報(bào)道。

基于深度神經(jīng)網(wǎng)絡(luò)的圖像壓縮系統(tǒng)最近逐漸受到人們的關(guān)注。這些系統(tǒng)通常比目前由編碼解碼器驅(qū)動(dòng)的系統(tǒng)(如BPG、WebP和JPEG2000)表現(xiàn)得好,除了能在自然圖像上實(shí)現(xiàn)更高的壓縮率之外,他們可以很容易地適應(yīng)特定目標(biāo)領(lǐng)域,例如立體圖像或醫(yī)學(xué)圖像,并且可以從壓縮版本中直接進(jìn)行高效地處理和索引

然而,對(duì)于低于像素深度低于0.1bpp的圖像來(lái)說(shuō),這些算法仍會(huì)導(dǎo)致嚴(yán)重的畫(huà)質(zhì)下降。隨著比特率趨近于零,想呈現(xiàn)完整地圖像內(nèi)容就很困難,而且這樣會(huì)使峰值信噪比(PSNR)或多比例結(jié)構(gòu)相似性(MS-SSIM)等常見(jiàn)指標(biāo)將變得毫無(wú)意義,因?yàn)樗鼈兏鼉A向于精確地保留局部(高熵)結(jié)構(gòu),而不是保持總體的紋理。

為了進(jìn)一步提升深度圖像壓縮的質(zhì)量,開(kāi)發(fā)超越PSNR和MS-SSIM的新指標(biāo)非常重要。其中重點(diǎn)關(guān)注的是對(duì)抗損失,最近的成果表明它能捕捉到全局的語(yǔ)義信息和局部紋理,產(chǎn)生強(qiáng)大的生成器,從而通過(guò)語(yǔ)義標(biāo)簽映射生成在視覺(jué)上吸引人的高分辨率圖像。

于是,來(lái)自蘇黎世聯(lián)邦理工學(xué)院的研究人員們提出并研究了基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的針對(duì)極限壓縮圖像的框架,目標(biāo)是像素深度低于0.1bpp的圖像。他們提出了一個(gè)通用性的GAN公式,用于深度圖像壓縮,可以生成不同程度的圖像內(nèi)容。與先前的圖像壓縮工作相比,這次的生成器/解碼器在全分辨率的圖像上工作,并用多尺度鑒別器進(jìn)行訓(xùn)練。

研究人員對(duì)兩種操作模式進(jìn)行了分別研究:

全局生成壓縮(GC),保留圖像所有內(nèi)容,同時(shí)生成不同尺寸的結(jié)構(gòu),例如樹(shù)上的葉子或者某建筑物陽(yáng)臺(tái)上的窗戶(hù);

選擇性生成壓縮(SC),只通過(guò)語(yǔ)義標(biāo)簽映射生成圖像的部分內(nèi)容,同時(shí)以高還原度保留用戶(hù)指定區(qū)域。

上圖是研究人員所提出的壓縮網(wǎng)絡(luò)。E代表圖像x的編碼器,或者作為圖像s的語(yǔ)義標(biāo)簽映射。q將潛在的代碼w量化為w^。G是生成器,產(chǎn)生解壓縮的圖像x^,D是用于對(duì)抗訓(xùn)練的鑒別器。對(duì)于SC,F(xiàn)從s中提取特征,經(jīng)過(guò)二次采樣的熱圖乘以z^以分配空間位。

GC的典型應(yīng)用場(chǎng)景是帶寬受限的區(qū)域,在這種情況下用戶(hù)想盡可能保留完整的圖像,但沒(méi)有足夠的位數(shù)儲(chǔ)存原始像素,無(wú)法合成塊狀或模糊的斑點(diǎn),只能合成內(nèi)容。SC可以用于視頻場(chǎng)景,如果用戶(hù)想要完全保留視頻中的人物,但是看起來(lái)吸引人的合成背景能滿(mǎn)足我們的目的,即作為真實(shí)的背景。在GC操作模式下,圖像被轉(zhuǎn)換成比特流格式,并且用算數(shù)編碼進(jìn)行編碼。SC需要一個(gè)原圖的語(yǔ)義或?qū)嵗龢?biāo)簽映射,它們可以從語(yǔ)義或?qū)嵗指罹W(wǎng)絡(luò)得來(lái)(例如PSPNet或Mask R-CNN)。相比于編碼的成本,這種圖像壓縮的開(kāi)銷(xiāo)是少的。另一方面,壓縮圖像的大小根據(jù)語(yǔ)義標(biāo)簽生成的區(qū)域按比例減少,通常也會(huì)降低儲(chǔ)存成本。

經(jīng)過(guò)綜合性的研究,在GC方面,研究人員提出的壓縮系統(tǒng)生成的圖像結(jié)果比BPG和基于自動(dòng)編碼器的深度壓縮系統(tǒng)更好(BPG是目前最優(yōu)秀的壓縮算法)。尤其是從Cityscapes數(shù)據(jù)集中選取的街景圖片,用戶(hù)更喜歡本次系統(tǒng)生成的圖片,即使BPG使用的位數(shù)是我們的兩倍。據(jù)他們所知,這是第一個(gè)證明深度壓縮方法由于BPG的研究。

在SC操作模式中,該系統(tǒng)能將圖像中保留下來(lái)的內(nèi)容和合成內(nèi)容無(wú)縫銜接,即使被許多物體隔開(kāi)的場(chǎng)景也很自然。利用這種分區(qū)域圖像生成的方法,圖像的像素深度減少了50%,但是沒(méi)有明顯降低圖像質(zhì)量。

結(jié)果對(duì)比

下面的表格展示了本文提出的方法的結(jié)果和最先進(jìn)的系統(tǒng)在Cityscapes數(shù)據(jù)集上的對(duì)比:

此次試驗(yàn)結(jié)果要比BPG好,即使當(dāng)BPG使用的bpp數(shù)量是我們的兩倍也是如此。在本文中,系統(tǒng)在ADE20K數(shù)據(jù)集和Kodak壓縮基準(zhǔn)測(cè)試上獲得了相似的結(jié)果。

接著,研究人員用經(jīng)過(guò)預(yù)訓(xùn)練的PSPNet來(lái)測(cè)量保留的語(yǔ)義,結(jié)果如下:

與BPG相比,我們達(dá)到了較高的mIoU的值,利用語(yǔ)義進(jìn)行訓(xùn)練時(shí)這個(gè)值進(jìn)一步增加

將所提的方法與其他方法對(duì)比。同樣一張Kodak Image 13,用本文所提出的方法壓縮與BPG、JPEG2000等方法效果非常不同:

在選擇性合成方面,該方法可以選擇性地保留一部分內(nèi)容,將剩下的部分重新合成。

左下角的熱圖顯示了合成對(duì)象,灰色是合成的部分。同時(shí)還顯示了每張圖的bpp,以及由于選擇性生成節(jié)省的尺寸

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4779

    瀏覽量

    101171
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1965

    瀏覽量

    74239

原文標(biāo)題:基于GAN的極限圖像壓縮框架

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    圖像生成對(duì)抗生成網(wǎng)絡(luò)gan_GAN生成汽車(chē)圖像 精選資料推薦

    圖像生成對(duì)抗生成網(wǎng)絡(luò)ganHello there! This is my story of making a GAN that would generate images of cars
    發(fā)表于 08-31 06:48

    圖像生成對(duì)抗生成網(wǎng)絡(luò)

    圖像生成對(duì)抗生成網(wǎng)絡(luò)ganby Thalles Silva 由Thalles Silva暖身 (Warm up)Let’s say there’s a very cool party going
    發(fā)表于 09-15 09:29

    生成對(duì)抗網(wǎng)絡(luò)模型綜述

    ,開(kāi)創(chuàng)性地提出了生成對(duì)抗網(wǎng)絡(luò)GAN)。生成對(duì)抗網(wǎng)絡(luò)包含一個(gè)生成模型和一個(gè)判別模型。其中,
    發(fā)表于 04-03 10:48 ?1次下載
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>模型綜述

    生成對(duì)抗網(wǎng)絡(luò)GAN,正在成為新的“深度學(xué)習(xí)”

    生成對(duì)抗網(wǎng)絡(luò)由一個(gè)生成網(wǎng)絡(luò)(Generator)與一個(gè)判別網(wǎng)絡(luò)(Discriminator)組成。生成
    的頭像 發(fā)表于 06-11 16:04 ?4858次閱讀
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>GAN</b>,正在成為新的“深度學(xué)習(xí)”

    生成對(duì)抗網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)領(lǐng)域有什么應(yīng)用

    生成對(duì)抗網(wǎng)絡(luò)GAN, Generative Adversarial Networks)的出現(xiàn)是計(jì)算機(jī)視覺(jué)領(lǐng)域又一里程碑式的發(fā)展,它為解決各種圖像預(yù)測(cè)問(wèn)題提供了新型工具。以此為目的,本文通過(guò)相關(guān)文獻(xiàn)
    發(fā)表于 12-06 15:29 ?22次下載
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>在計(jì)算機(jī)視覺(jué)領(lǐng)域有什么應(yīng)用

    如何使用生成對(duì)抗網(wǎng)絡(luò)進(jìn)行信息隱藏方案資料說(shuō)明

    針對(duì)信息隱藏中含密栽體會(huì)留有修改痕跡,從根本上難以抵抗基于統(tǒng)計(jì)的隱寫(xiě)分析算法檢測(cè)的問(wèn)題,提出一種基于生成對(duì)抗網(wǎng)絡(luò)GAN)的信息隱藏方案。該方案首先利用生成對(duì)抗
    發(fā)表于 12-12 16:57 ?6次下載
    如何使用<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>進(jìn)行信息隱藏方案資料說(shuō)明

    如何使用深度殘差生成對(duì)抗網(wǎng)絡(luò)設(shè)計(jì)醫(yī)學(xué)影像超分辨率算法

    針對(duì)醫(yī)學(xué)影像超分辨率重建過(guò)程中細(xì)節(jié)丟失導(dǎo)致的模糊問(wèn)題,提出了一種基于深度殘差生成對(duì)抗網(wǎng)絡(luò)GAN)的醫(yī)學(xué)影像超分辨率算法。首先,算法包括生成網(wǎng)絡(luò)
    發(fā)表于 01-02 16:59 ?5次下載
    如何使用深度殘差<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>設(shè)計(jì)醫(yī)學(xué)影像超分辨率算法

    必讀!生成對(duì)抗網(wǎng)絡(luò)GAN論文TOP 10

    這篇 GAN 論文來(lái)自 NVIDIA Research,提出以一種漸進(jìn)增大(progressive growing)的方式訓(xùn)練 GAN,通過(guò)使用逐漸增大的 GAN 網(wǎng)絡(luò)(稱(chēng)為 PG-
    的頭像 發(fā)表于 03-20 09:02 ?6597次閱讀
    必讀!<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>GAN</b>論文TOP 10

    生成對(duì)抗網(wǎng)絡(luò)與其他生成模型之間的權(quán)衡取舍是什么?

    根據(jù)一些指標(biāo)顯示,關(guān)于生成對(duì)抗網(wǎng)絡(luò)GAN)的研究在過(guò)去兩年間取得了本質(zhì)的進(jìn)步。
    的頭像 發(fā)表于 04-29 11:01 ?3885次閱讀

    基于密集卷積生成對(duì)抗網(wǎng)絡(luò)的圖像修復(fù)方法

    差等問(wèn)題。針對(duì)上述問(wèn)題,文中提出了一種基于密集卷積生成對(duì)抗網(wǎng)絡(luò)的圖像修復(fù)算法。該算法采用生成對(duì)抗網(wǎng)絡(luò)作為圖像修復(fù)的基本框架。首先,利用密集卷
    發(fā)表于 05-13 14:39 ?15次下載

    基于像素級(jí)生成對(duì)抗網(wǎng)絡(luò)的圖像彩色化模型

    基于像素級(jí)生成對(duì)抗網(wǎng)絡(luò)的圖像彩色化模型
    發(fā)表于 06-27 11:02 ?4次下載

    GAN生成對(duì)抗網(wǎng)絡(luò) Generative Adversarial Networks

    原文鏈接 1 原理 對(duì)于生成對(duì)抗網(wǎng)絡(luò)GAN,一個(gè)簡(jiǎn)單的理解是可以將其看做博弈的過(guò)程,我們可以將生成模型和判別模型看作博弈的雙方,比如在犯罪分子造假幣和警察識(shí)別假幣的過(guò)程中:
    的頭像 發(fā)表于 01-12 09:45 ?914次閱讀

    生成對(duì)抗網(wǎng)絡(luò)GAN的七大開(kāi)放性問(wèn)題

    生成對(duì)抗網(wǎng)絡(luò)在過(guò)去一年仍是研究重點(diǎn),我們不僅看到可以生成高分辨率(1024×1024)圖像的模型,還可以看到那些以假亂真的生成圖像。此外,我們還很興奮能看到一些新的
    的頭像 發(fā)表于 03-17 11:18 ?711次閱讀
    <b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>GAN</b>的七大開(kāi)放性問(wèn)題

    PyTorch教程20.2之深度卷積生成對(duì)抗網(wǎng)絡(luò)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程20.2之深度卷積生成對(duì)抗網(wǎng)絡(luò).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:21 ?2次下載
    PyTorch教程20.2之深度卷積<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    生成對(duì)抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs通過(guò)構(gòu)建兩個(gè)
    的頭像 發(fā)表于 07-09 11:34 ?1323次閱讀
    主站蜘蛛池模板: 涩色综合| 99视频网站| 久久天天躁狠狠躁夜夜 | 女人张开腿给男人桶爽免费 | 国产一区二区三区乱码 | 亚洲一区二区三 | 久久奇米 | 手机毛片在线 | 日本一区二区免费看 | 免费在线公开视频 | 国模吧一区二区三区精品视频 | 色老久久精品偷偷鲁一区 | 免费看黄色片网站 | 天天操天天干天天玩 | 色多多在线视频 | 特级毛片aaaaaa蜜桃 | 教官的好爽好深h片段 | 操碰视频在线观看 | 日韩特黄 | 色视频2 | 日韩视频 中文字幕 视频一区 | 奇米影视第四色7777 | 2020国产v亚洲v天堂高清 | 91精品啪国产在线观看免费牛牛 | 一区二区视频 | 看黄在线观看 | 91视频污污版 | 日本免费黄色网 | 国产黄色在线网站 | 亚洲电影一区二区三区 | 久久波多野结衣 | 亚洲综合激情六月婷婷在线观看 | 久久久精品免费国产四虎 | 成人伊在线影院 | 免费在线视频你懂的 | 韩国十八禁毛片无遮挡 | 午夜黄色剧场 | 日日做日日摸夜夜爽 | 国产小视频在线 | 三级黄色在线视频中文 | 在线观看一区二区三区四区 |