在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

3個神經網絡,讓蒙娜麗莎活起來

DPVg_AI_era ? 來源:lq ? 2019-05-25 09:05 ? 次閱讀

還記得哈利?波特第一次來到霍格沃茨看到墻上那些既會動又會說話的掛畫是多么驚訝嗎?如果我們可以將掛畫 “復活”,和 500 多年前的蒙娜麗莎來場穿越時空的對話會怎樣呢?感謝 AI 技術,把畫 “復活” 不再是夢!

名畫《蒙娜麗莎的微笑》,會動了!

夢娜麗莎轉過頭,嘴里說著話,微微眨了眨眼,臉上帶著溫婉的微笑。

是的,《哈利·波特》世界中”會動的畫“魔法實現了!來自三星AI中心(Samsung AI Center)和莫斯科斯的Skolkovo 科學技術研究所的一組研究人員,開發了一個能將讓JPEG變GIF的AI系統。

《哈利·波特》中守衛格蘭芬多學院休息室的胖夫人畫像

更牛逼的是,該技術完全無需3D建模,僅需一張圖片就能訓練出惟妙惟肖的動畫。研究人員稱這種學習方式為“few-shot learning"。

當然,如果有多幾張照片——8張或32張——創造出來動圖效果就更逼真了。比如:

愛因斯坦給你講物理:

瑪麗蓮夢露和你 flirt:

本周,三星AI實驗室的研究人員發表了一篇題為 “Few-Shot Adversarial Learning of Realistic Neural Talking Head Models” 的論文,概述了這種技術。該技術基于卷積神經網絡,其目標是獲得一個輸入源圖像,模擬目標輸出視頻中某個人的運動,從而將初始圖像轉換為人物正在說話的短視頻。

論文一發表馬上引起轟動,畢竟這項技術創造了巨大的想象空間!

類似這樣的項目有很多,所以這個想法并不特別新穎。但在這篇論文中,最有趣的是,該系統不需要大量的訓練示例,而且系統只需要看一次圖片就可以運行。這就是為什么它讓《蒙娜麗莎》活起來。

3個神經網絡,讓蒙娜麗莎活起來

這項技術采用“元學習”架構,如下圖所示:

圖2:“讓照片動起來”元學習架構

具體來說,涉及三個神經網絡:

首先,嵌入式網絡映射輸入圖像中的眼睛、鼻子、嘴巴大小等信息,并將其轉換為向量;

其次,生成式網絡通過繪制人像的面部地標(face landmarks)來復制人在視頻中的面部表情;

第三,鑒別器網絡將來自輸入圖像的嵌入向量粘貼到目標視頻的landmark上,使輸入圖像能夠模擬視頻中的運動。

最后,計算“真實性得分”。該分數用于檢查源圖像與目標視頻中的姿態的匹配程度。

元學習過程:只需1張輸入圖像

研究人員使用VoxCeleb2數據集對這個模型進行了預訓練,這是一個包含許多名人頭像的數據庫。在這個過程中,前面描述的過程是一樣的,但是這里的源圖像和目標圖像只是同一視頻的不同幀。

因此,這個系統不是讓一幅畫去模仿視頻中的另一個人,而是有一個可以與之比較的ground truth。通過持續訓練,直到生成的幀與訓練視頻中的真實幀十分相似為止。

預訓練階段允許模型在只有很少示例的輸入上工作。哪怕只有一張圖片可用時,結果也不會太糟,但當有更多圖片可用時,結果會更加真實。

實驗和結果

研究人員使用2個數據集分別進行定量和定性評估:VoxCeleb1數據集用于與基準模型進行比較,VoxCeleb2用于展示他們所提出方法的效果。

研究人員在三種不同的設置中將他們的模型與基準模型進行了比較,使用fine-tuning集中的1幀、8幀和32幀。

表1:few-shot learning設置下不同方法的定量比較

結果如表1上半部分所示,基線模型在兩個相似性度量上始終優于我們的方法。

不過,這些指標不能完全代表人類的感知,因為這兩種方法都會產生恐怖谷偽影,從圖3的定性比較和用戶研究結果可以看出。

另一方面,余弦相似度與視覺質量有更好的相關性,但仍然傾向于模糊、不太真實的圖像,這也可以通過表1-Top與圖3中的比較結果看出。

圖3:使用1張、8張和32張訓練圖像時的三個示例。系統采用一個源圖像(第1列),并嘗試將該圖像映射到ground truth幀中的相同位置(第2列)。研究人員將他們的結果與X2Face、PixtopixHD模型進行了比較。

大規模的結果。

隨后,我們擴展可用的數據,并在更大的VoxCeleb2數據集中訓練我們的方法。

下面是2個變體模型的結果:

圖4:在VoxCeleb2數據集中的最佳模型的結果。

同樣,訓練幀的數量是T(左邊的數字),第1列是示例訓練幀。第2列是ground truth圖像,后3列分別是我們的FF feed-forward 模型及微調前后的結果。雖然 feed-forward變體的學習更快速,但fine-tuning 最終提供了更好的真實感和保真度。

最后,我們展示了的照片和繪畫的結果。

圖5:讓靜態照片“活”起來

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4781

    瀏覽量

    101177
  • 圖像
    +關注

    關注

    2

    文章

    1089

    瀏覽量

    40574
  • ai技術
    +關注

    關注

    1

    文章

    1290

    瀏覽量

    24461

原文標題:蒙娜麗莎一鍵“復活”!三星AI Lab:只需一張圖片就能合成動畫

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    人工神經網絡原理及下載

    人工神經網絡是根據人的認識過程而開發出的一種算法。假如我們現在只有一些輸入和相應的輸出,而對如何由輸入得到輸出的機理并不清楚,那么我們可以把輸入與輸出之間的未知過程看成是一網絡”,通過不斷地給
    發表于 06-19 14:40

    神經網絡教程(李亞非)

      第1章 概述  1.1 人工神經網絡研究與發展  1.2 生物神經元  1.3 人工神經網絡的構成  第2章人工神經網絡基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發表于 03-20 11:32

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    超過閾值,輸出就一躍而起。但我們一般用S函數作為激活函數。如下圖:圖2 該函數相比階越函數更加接近現實。神經網絡原理如圖所示是一具有兩層的神經網絡,每層有兩
    發表于 03-03 22:10

    卷積神經網絡如何使用

    卷積神經網絡(CNN)究竟是什么,鑒于神經網絡在工程上經歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發表于 07-17 07:21

    【案例分享】ART神經網絡與SOM神經網絡

    今天學習了兩神經網絡,分別是自適應諧振(ART)神經網絡與自組織映射(SOM)神經網絡。整體感覺不是很難,只不過一些最基礎的概念容易理解不清。首先ART
    發表于 07-21 04:30

    如何構建神經網絡

    原文鏈接:http://tecdat.cn/?p=5725 神經網絡是一種基于現有數據創建預測的計算系統。如何構建神經網絡神經網絡包括:輸入層:根據現有數據獲取輸入的層隱藏層:使用反向傳播優化輸入變量權重的層,以提高模型的預測
    發表于 07-12 08:02

    matlab實現神經網絡 精選資料分享

    神經神經網絡,對于神經網絡的實現是如何一直沒有具體實現一下:現看到一簡單的神經網絡模型用于訓練的輸入數據:對應的輸出數據:我們這里設置:
    發表于 08-18 07:25

    神經網絡移植到STM32的方法

    神經網絡移植到STM32最近在做的一項目需要用到網絡進行擬合,并且將擬合得到的結果用作控制,就在想能不能直接在單片機上做神經網絡計算,這樣就可以實時計算,不依賴于上位機。所以要解決
    發表于 01-11 06:20

    神經網絡運用領域

    神經網絡可以研究特定藝術品的筆畫,顏色和陰影中的圖案。在此基礎上,可以將原作的風格轉化為新的形象。DeepArt.io就是一例子,該公司創建的應用程序使用深度學習來學習數百種不同的風格,可以將其
    的頭像 發表于 11-24 09:28 ?6064次閱讀

    用一張圖像合成動圖,蒙娜麗莎開口說話

    蒙娜麗莎開口說話你見過嗎?這位神秘的畫中人也能做出各種 gif 表情?
    的頭像 發表于 05-27 13:58 ?4616次閱讀

    用Python從頭實現一神經網絡來理解神經網絡的原理1

    事情可能會初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞人覺得很高大上,但實際上神經網絡
    的頭像 發表于 02-27 15:05 ?745次閱讀
    用Python從頭實現一<b class='flag-5'>個</b><b class='flag-5'>神經網絡</b>來理解<b class='flag-5'>神經網絡</b>的原理1

    用Python從頭實現一神經網絡來理解神經網絡的原理2

    事情可能會初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞人覺得很高大上,但實際上神經網絡
    的頭像 發表于 02-27 15:06 ?668次閱讀
    用Python從頭實現一<b class='flag-5'>個</b><b class='flag-5'>神經網絡</b>來理解<b class='flag-5'>神經網絡</b>的原理2

    用Python從頭實現一神經網絡來理解神經網絡的原理3

    事情可能會初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞人覺得很高大上,但實際上神經網絡
    的頭像 發表于 02-27 15:06 ?780次閱讀
    用Python從頭實現一<b class='flag-5'>個</b><b class='flag-5'>神經網絡</b>來理解<b class='flag-5'>神經網絡</b>的原理<b class='flag-5'>3</b>

    用Python從頭實現一神經網絡來理解神經網絡的原理4

    事情可能會初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞人覺得很高大上,但實際上神經網絡
    的頭像 發表于 02-27 15:06 ?738次閱讀
    用Python從頭實現一<b class='flag-5'>個</b><b class='flag-5'>神經網絡</b>來理解<b class='flag-5'>神經網絡</b>的原理4

    最流行神經網絡

    在本文中,我們將了解深度神經網絡的基礎知識和三最流行神經網絡:多層神經網絡(MLP),卷積神經網絡(CNN)和遞歸
    發表于 05-15 14:19 ?1512次閱讀
    三<b class='flag-5'>個</b>最流行<b class='flag-5'>神經網絡</b>
    主站蜘蛛池模板: 4hu四虎永久免在线视 | 日本免费一区二区视频 | 黄色片 720p| 成人激情视频网 | 一区二区高清在线观看 | 1024手机看片日韩 | 女人双腿搬开让男人桶 | 男女交性特一级 | 色射啪 | 天天爆操 | 亚洲 欧美 另类 吹潮 | 黄色大片在线免费观看 | 亚洲专区一区 | 久久国产成人午夜aⅴ影院 久久国产福利 | 欧美 亚洲 国产 精品有声 | 日本系列 1页 亚洲系列 | 亚洲男人的天堂久久香蕉 | 热久久这里只有精品 | 色在线看| 天天干夜夜爽天天操夜夜爽视频 | 亚洲精品二区中文字幕 | 女人的天堂网站 | 加勒比视频一区 | 色香欲亚洲天天综合网 | 欧美69xxx| 女人张开腿 让男人桶视频 女人张开腿等男人桶免费视频 | 97人人在线 | 新天堂在线 | 好大好猛好爽好深视频免费 | 亚洲第一视频 | 边做边爱在线观看视频免费 | 影音先锋在线亚洲精品推荐 | 欧美一级爱操视频 | 久久中文字幕一区二区 | 男人日女人视频在线观看 | 成人区精品一区二区毛片不卡 | 久久亚洲国产欧洲精品一 | 三浦理惠子中文在 | 色老头影院 | 亚洲国产综合久久精品 | 夜夜摸夜夜操 |