在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

動(dòng)態(tài)紋理合成新方法,由“靜”至“動(dòng)”

人工智能和機(jī)器人研究院 ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-04-23 17:22 ? 次閱讀

圖畫總是只能表現(xiàn)事物瞬間的形象,而動(dòng)畫則需要逐幀手繪,費(fèi)時(shí)費(fèi)力,人工智能是否能夠幫助我們解決這一困難?近日,來(lái)自加拿大約克大學(xué)、Ryerson 大學(xué)的研究者們提出了使用「雙流卷積神經(jīng)網(wǎng)絡(luò)」的動(dòng)畫生成方法,其參考了人類感知?jiǎng)討B(tài)紋理畫面的雙路徑模式。該動(dòng)畫生成模型可以參考相關(guān)視頻,讓一張靜態(tài)圖片變成效果逼真的動(dòng)畫。目前,該研究的論文已被 CVPR 2018 大會(huì)接收,相關(guān)代碼也已公開。

動(dòng)畫生成效果展示

很多常見的時(shí)序視覺模式使用組成元素的外觀和動(dòng)態(tài)(即時(shí)序模式變化)的集合進(jìn)行描述。此類模式包括火、搖曳的樹木和波浪起伏的水。長(zhǎng)期以來(lái),理解和特征化這些時(shí)序模式是人類感知、計(jì)算機(jī)視覺和計(jì)算機(jī)制圖領(lǐng)域感興趣的問題。之前的研究給這些模式起了很多名字,如渦流運(yùn)動(dòng)(turbulent-flow motion)[17]、時(shí)序紋理(temporal texture)[30]、時(shí)變紋理(time-varying texture)[3]、動(dòng)態(tài)紋理 [8]、紋理運(yùn)動(dòng)(textured motion)[45] 和時(shí)空紋理(spacetime texture)[7]。本論文作者使用「動(dòng)態(tài)紋理」(dynamic texture)。該研究提出從外觀和時(shí)序動(dòng)態(tài)的角度對(duì)動(dòng)態(tài)紋理進(jìn)行因子分析。然后使用因子分解結(jié)果完成基于示例紋理輸入的動(dòng)態(tài)紋理合成,從而生成新型動(dòng)態(tài)紋理實(shí)例。它還產(chǎn)生了一種新型風(fēng)格遷移形式,目標(biāo)外觀和動(dòng)態(tài)可來(lái)自不同來(lái)源,如圖 1 所示。

圖 1:動(dòng)態(tài)紋理合成。(左)給出一個(gè)輸入動(dòng)態(tài)紋理作為目標(biāo),本文提出的雙流模型能夠合成一個(gè)新的動(dòng)態(tài)紋理,保留目標(biāo)的外觀和動(dòng)態(tài)特征。(右)雙流模型使合成結(jié)合一個(gè)目標(biāo)的紋理外觀和另一個(gè)目標(biāo)的動(dòng)態(tài),從而產(chǎn)生二者的合成品。

本研究提出的模型由兩個(gè)卷積網(wǎng)絡(luò)(ConvNet)構(gòu)成——外觀流和動(dòng)態(tài)流,二者分別經(jīng)過預(yù)訓(xùn)練,用于目標(biāo)識(shí)別和光流預(yù)測(cè)。與空間紋理研究 [13, 19, 33] 類似,本文根據(jù)每一個(gè)流的濾波器輸出的時(shí)空數(shù)據(jù)集,總結(jié)輸入動(dòng)態(tài)紋理。外觀流建模輸入紋理每一幀的外觀,動(dòng)態(tài)流建模時(shí)序動(dòng)態(tài)。合成過程包括優(yōu)化隨機(jī)初始化的噪聲模式,以使每個(gè)流的時(shí)空數(shù)據(jù)與輸入紋理的時(shí)空數(shù)據(jù)相匹配。該架構(gòu)受到人類感知和神經(jīng)科學(xué)的啟發(fā)。具體來(lái)說,心理物理學(xué)研究 [6] 顯示人類能夠感知?jiǎng)討B(tài)紋理的結(jié)構(gòu),即使是在沒有外觀提示的情況下,這表明兩個(gè)流是獨(dú)立的。類似地,雙流假設(shè) [16] 從兩個(gè)路徑建模人類視覺皮層:腹側(cè)流(負(fù)責(zé)目標(biāo)識(shí)別)和背側(cè)流(負(fù)責(zé)運(yùn)動(dòng)處理)。

本文提出的對(duì)動(dòng)態(tài)紋理的雙流分析也被應(yīng)用于紋理合成。研究者考慮了大量動(dòng)態(tài)紋理,并展示了其方法能夠生成新型高質(zhì)量樣本,匹配輸入樣本的逐幀外觀和時(shí)序變化。此外,外觀和動(dòng)態(tài)的因子分解還產(chǎn)生了一種新型的風(fēng)格遷移形式,一個(gè)紋理的動(dòng)態(tài)可以與另一個(gè)紋理的外觀結(jié)合起來(lái)。我們甚至可以使用單個(gè)圖像作為外觀目標(biāo)來(lái)完成該操作,使靜態(tài)圖像變成動(dòng)畫。最后,研究者通過大量用戶調(diào)研驗(yàn)證了其生成紋理的逼真程度。

技術(shù)方法

本文提出的雙流方法包括外觀流(表示每一幀的靜態(tài)(紋理)外觀)和動(dòng)態(tài)流(表示幀與幀之間的時(shí)序變化)。每個(gè)流包括一個(gè)卷積神經(jīng)網(wǎng)絡(luò),其激活數(shù)據(jù)被用于特征花動(dòng)態(tài)紋理。合成動(dòng)態(tài)紋理是一個(gè)目標(biāo)為匹配激活數(shù)據(jù)的優(yōu)化問題。本文提出的動(dòng)態(tài)紋理合成方法見圖 2。

圖 2:雙流動(dòng)態(tài)紋理生成。Gram 矩陣集表示紋理的外觀和動(dòng)態(tài)。匹配這些數(shù)據(jù)才能實(shí)現(xiàn)新紋理的生成和紋理之間的風(fēng)格遷移。

圖 3:動(dòng)態(tài)流卷積神經(jīng)網(wǎng)絡(luò)。該 ConvNet 基于面向時(shí)空的能量模型 [7,39],同時(shí)經(jīng)過光流預(yù)測(cè)的訓(xùn)練。圖中顯示了三個(gè)擴(kuò)展(scale),實(shí)踐中研究者使用了五個(gè)擴(kuò)展。

實(shí)驗(yàn)結(jié)果

(動(dòng)態(tài))紋理合成的目標(biāo)是讓計(jì)算機(jī)生成人類觀察者無(wú)法區(qū)分是否為真實(shí)圖像的樣本。該研究同時(shí)也展示了各種合成結(jié)果,以及大量用戶調(diào)研,以定量評(píng)估新模型生成圖像的逼真程度。由于生成圖像隨時(shí)間變化的特性,本研究的結(jié)果多為視頻展示。研究人員表示,該雙流架構(gòu)是由 TensorFlow 實(shí)現(xiàn)的,并使用 NVIDIA Titan X(Pascal)GPU 生成結(jié)果,圖像合成的時(shí)間介于 1-3 小時(shí)之間,每次生成 12 幀,圖像分辨率為 256×256。

摘要:本論文提出了一個(gè)用于動(dòng)態(tài)紋理合成的雙流模型。我們的模型基于兩個(gè)預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(ConvNet),分別針對(duì)兩個(gè)獨(dú)立任務(wù):目標(biāo)識(shí)別、光流預(yù)測(cè)。給定一個(gè)輸入動(dòng)態(tài)紋理,來(lái)自目標(biāo)識(shí)別卷積神經(jīng)網(wǎng)絡(luò)的濾波器響應(yīng)數(shù)據(jù)壓縮輸入紋理每一幀的外觀,而來(lái)自光流卷積神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)會(huì)對(duì)輸入紋理的動(dòng)態(tài)進(jìn)行建模。為了生成全新的紋理,隨機(jī)初始化輸入序列經(jīng)過優(yōu)化后,用于匹配輸入紋理的數(shù)據(jù)與每個(gè)流的特征數(shù)據(jù)。受到近期關(guān)于圖像風(fēng)格遷移的啟發(fā),同時(shí)受益于本文提出的雙流模型,我們還嘗試合成一種紋理的外觀與另一種紋理的動(dòng)態(tài),以生成全新的動(dòng)態(tài)紋理。實(shí)驗(yàn)表明,我們提出的方法可以生成全新的、高質(zhì)量樣本,可匹配輸入紋理的逐幀外觀及其隨時(shí)間的變化。最后,我們通過深入的用戶研究,對(duì)新的紋理合成方法進(jìn)行量化評(píng)估。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1805

    文章

    48863

    瀏覽量

    247632
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46637

原文標(biāo)題:用AI讓靜圖變動(dòng)圖:CVPR熱文提出動(dòng)態(tài)紋理合成新方法

文章出處:【微信號(hào):gh_ecbcc3b6eabf,微信公眾號(hào):人工智能和機(jī)器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    測(cè)電阻,新方法,不加激勵(lì)

    測(cè)電阻,新方法,不加激勵(lì)的辦法有沒有。
    發(fā)表于 03-26 10:44

    一種標(biāo)定陀螺儀的新方法

    一種標(biāo)定陀螺儀的新方法
    發(fā)表于 08-17 12:17

    分享一種中斷輸入和動(dòng)態(tài)顯示的新方法

    本文提出了在P1口的部分口線上實(shí)現(xiàn)2X8陣列的中斷方式鍵盤輸入和脫機(jī)硬件動(dòng)態(tài)顯示的新方法
    發(fā)表于 06-07 06:15

    求大佬分享按鍵掃描的新方法

    求大佬分享按鍵掃描的新方法
    發(fā)表于 01-17 06:50

    虛擬環(huán)境中軟體的包圍盒更新方法分析

    講述了軟體采用層次包圍盒方法進(jìn)行碰撞檢測(cè)時(shí),針對(duì)連續(xù)變形包圍盒樹的兩類更新方法:靜態(tài)更新和動(dòng)態(tài)更新,對(duì)靜態(tài)更新方法中的自上而下、自下而上和混合更新方
    發(fā)表于 08-14 08:59 ?8次下載

    基于區(qū)域紋理合成的圖像修補(bǔ)算法

    針對(duì)傳統(tǒng)修補(bǔ)技術(shù)在圖像恢復(fù)中出現(xiàn)的紋理模糊現(xiàn)象,該文根據(jù)紋理合成技術(shù),提出了一種區(qū)域紋理合成的修補(bǔ)算法。算法根據(jù)破損點(diǎn)鄰域特征選擇模板,去除模板內(nèi)的破損點(diǎn)后進(jìn)
    發(fā)表于 11-17 14:50 ?15次下載

    虛擬環(huán)境中軟體的包圍盒更新方法分析

    講述了軟體采用層次包圍盒方法進(jìn)行碰撞檢測(cè)時(shí),針對(duì)連續(xù)變形包圍盒樹的兩類更新方法:靜態(tài)更新和動(dòng)態(tài)更新,對(duì)靜態(tài)更新方法中的自上而下、自下而上和混合更新方
    發(fā)表于 12-25 16:25 ?13次下載

    基于Wang Tiles的幾何紋理合成

    提出了一種基于Wang Tiles的幾何紋理合成方法來(lái)在不同物體表面上即時(shí)地生成幾何紋理.首先根據(jù)給定的幾何紋理預(yù)計(jì)算出一組Wang Tiles,然后用這組Wang Tiles在不同的目標(biāo)物體上即時(shí)生成
    發(fā)表于 12-30 10:37 ?19次下載

    一種基于曲面紋理合成的改進(jìn)方法

    舒恒等人在2007年提出一種新的紋理合成算法,雖然對(duì)大部分曲面紋理合成有不錯(cuò)的效果,但合成時(shí)會(huì)出現(xiàn)大量的約束面,搜索匹配約束面會(huì)耗費(fèi)很多的時(shí)間,本文采用人工智能中的粒子
    發(fā)表于 02-22 16:14 ?2次下載

    一種求解動(dòng)態(tài)及不確定性優(yōu)化問題的新方法

    一種求解動(dòng)態(tài)及不確定性優(yōu)化問題的新方法_劉曉
    發(fā)表于 01-07 18:56 ?0次下載

    基于蜜蜂進(jìn)化型遺傳算法的Wangtiles紋理合成孫濤

    基于蜜蜂進(jìn)化型遺傳算法的Wangtiles紋理合成_孫濤
    發(fā)表于 03-16 08:00 ?0次下載

    AD采集的新方法資料分享

    AD采集的新方法
    發(fā)表于 03-23 09:44 ?10次下載

    并聯(lián)APF直流側(cè)電壓選擇新方法

    并聯(lián)APF直流側(cè)電壓選擇新方法(肇慶理士電源技術(shù))-并聯(lián)APF直流側(cè)電壓選擇新方法? ? ? ? ? ? ??
    發(fā)表于 09-17 16:47 ?6次下載
    并聯(lián)APF直流側(cè)電壓選擇<b class='flag-5'>新方法</b>

    VLSI系統(tǒng)設(shè)計(jì)的最新方法

    電子發(fā)燒友網(wǎng)站提供《VLSI系統(tǒng)設(shè)計(jì)的最新方法.pdf》資料免費(fèi)下載
    發(fā)表于 11-20 11:10 ?0次下載
    VLSI系統(tǒng)設(shè)計(jì)的最<b class='flag-5'>新方法</b>

    實(shí)踐JLink 7.62手動(dòng)增加新MCU型號(hào)支持新方法

    大家好,我是痞子衡,是正經(jīng)搞技術(shù)的痞子。今天痞子衡給大家分享的是實(shí)踐JLink 7.62手動(dòng)增加新MCU型號(hào)支持新方法
    的頭像 發(fā)表于 08-08 15:25 ?1274次閱讀
    實(shí)踐JLink 7.62手<b class='flag-5'>動(dòng)</b>增加新MCU型號(hào)支持<b class='flag-5'>新方法</b>
    主站蜘蛛池模板: 亚洲综合色吧 | 狠狠色丁香婷婷综合小时婷婷 | 爱看精品福利视频观看 | 亚洲一级影院 | 欧美视频一区二区三区在线观看 | 国产色婷婷 | 国产精品欧美激情在线播放 | 尤物蜜芽福利国产污在线观看 | 天天操人人射 | 天天色综合久久 | 欧美深夜| 喷潮白浆直流在线播放 | 在线观看h网站 | 婷婷欧美 | 色费女人18女人毛片免费视频 | 在线天堂网www资源种子 | 97爱sese | 免费观看黄色网页 | 亚洲黄网免费 | 国内精品一区二区在线观看 | 在线99热| 久久久久国产成人精品亚洲午夜 | 日本三级最新中文字幕电影 | 男操女视频在线观看 | 高清视频免费观看 | 狠狠操影院 | 人人做人人爽久久久精品 | 国产农村妇女毛片精品久久 | 色综合久久久高清综合久久久 | 免费欧洲美女与动zooz | 狠狠色丁香久久婷婷 | 四虎网站在线播放 | 午夜看片在线观看 | 日韩美女拍拍免费视频网站 | 丁香花的视频免费观看 | 在线视频一区二区 | 天天干天天色综合网 | 午夜嘿咻| 你懂的网址在线观看 | 400部大量精品情侣网站 | 日本 韩国 三级 国产 欧美 |