在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌研究人員利用3D卷積網(wǎng)絡打造視頻生成新系統(tǒng)

DPVg_AI_era ? 來源:lq ? 2019-06-02 09:30 ? 次閱讀

谷歌研究人員利用3D卷積網(wǎng)絡打造視頻生成新系統(tǒng),只需要視頻的第一幀和最后一幀,就能生成完整合理的整段視頻,是不是很神奇?

漫畫書秒變動畫片了解一下?

想象一下,現(xiàn)在你的手中有一段視頻的第一幀和最后一幀圖像,讓你負責把中間的圖像填進去,生成完整的視頻,從現(xiàn)有的有限信息中推斷出整個視頻。你能做到嗎?

這可能聽起來像是一項不可能完成的任務,但谷歌人工智能研究部門的研究人員已經(jīng)開發(fā)出一種新系統(tǒng),可以由視頻第一幀和最后一幀生成“似是而非的”視頻序列,這個過程被稱為“inbetween”。

“想象一下,如果我們能夠教一個智能系統(tǒng)來將漫畫自動變成動畫,會是什么樣子?如果真實現(xiàn)了這一點,無疑將徹底改變動畫產(chǎn)業(yè)?!霸撜撐牡墓餐髡邔懙??!半m然這種極其節(jié)省勞動力的能力仍然超出目前最先進的水平,但計算機視覺機器學習技術(shù)的進步正在使這個目標的實現(xiàn)越來越接近?!?/p>

原理與模型結(jié)構(gòu)

這套AI系統(tǒng)包括一個完全卷積模型,這是是受動物視覺皮層啟發(fā)打造的深度神經(jīng)網(wǎng)絡,最常用于分析視覺圖像。它由三個部分組成:2D卷積圖像解碼器,3D卷積潛在表示生成器,以及視頻生成器。

圖1:視頻生成模型示意圖

圖像解碼器將來自目標視頻的幀映射到潛在空間,潛在表示生成器學習對包含在輸入幀中的信息進行合并。最后,視頻生成器將潛在表示解碼為視頻中的幀。

研究人員表示,將潛在表示生成與視頻解碼分離對于成功實現(xiàn)中間視頻至關重要,直接用開始幀和結(jié)束幀的編碼表示生成視頻的結(jié)果很差。為了解決這個問題,研究人員設計了潛在表示生成器,對幀的表示進行融合,并逐步增加生成視頻的分辨率。

圖2:模型生成的視頻幀序列圖,對于每個數(shù)據(jù)集上方的圖表示模型生成的序列,下方為原視頻,其中首幀和尾幀用于生成模型的采樣。

實驗結(jié)果

為了驗證該方法,研究人員從三個數(shù)據(jù)集中獲取視頻 - BAIR機器人推送,KTH動作數(shù)據(jù)庫和UCF101動作識別數(shù)據(jù)集 - 并將這些數(shù)據(jù)下采樣至64 x 64像素的分辨率。每個樣本總共包含16幀,其中的14幀由AI系統(tǒng)負責生成。

研究人員為每對視頻幀運行100次模型,并對每個模型變量和數(shù)據(jù)集重復10次,在英偉達Tesla V100顯卡平臺上的訓練時間約為5天。結(jié)果如下表所示:

表1:我們報告了完整模型和兩個基線的平均FVD,對每個模型和數(shù)據(jù)集重復10次,每次運行100個epoch,表中FVD值越低,表示對應生成視頻的質(zhì)量越高。

表2:使用直接3D卷積和基于的替代方法的模型的平均SSIM

RNN(SDVI)或光流(SepConv和SuperSloMo),數(shù)值越高越好。

研究人員表示,AI生成的視頻幀序列在風格上與給定的起始幀和結(jié)束幀保持一致,而且看上去說得通?!傲钊梭@喜的是,這種方法可以在如此長的時間段內(nèi)實現(xiàn)視頻生成,”該團隊表示,“這可能給未來的視頻生成技術(shù)研究提供了一個有用的替代視角。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關注

    關注

    9

    文章

    1147

    瀏覽量

    40912
  • 谷歌
    +關注

    關注

    27

    文章

    6192

    瀏覽量

    105928
  • 智能系統(tǒng)

    關注

    2

    文章

    399

    瀏覽量

    72592

原文標題:谷歌AI動畫接龍:只用頭尾兩幀圖像,片刻生成完整視頻!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    阿里云通義萬相2.1視頻生成模型震撼發(fā)布

    近日,阿里云旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這一創(chuàng)新成果標志著阿里云在視頻生成技術(shù)領域的又一次重大突破。 據(jù)悉,萬相2.1視頻生成模型在多個方面實現(xiàn)了顯著提升
    的頭像 發(fā)表于 01-13 10:00 ?219次閱讀

    OpenAI開放Sora視頻生成模型

    OpenAI近日宣布,其傾力打造的人工智能視頻生成系統(tǒng)Sora已正式向美國及其他市場的ChatGPT Plus訂閱用戶開放。自去年首次公開預覽以來,Sora歷經(jīng)約10個月的精心研發(fā)與優(yōu)化,現(xiàn)已全面
    的頭像 發(fā)表于 12-10 11:16 ?379次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這一舉措標志著火山引擎在視頻內(nèi)容生成領域邁出了重要一步。豆包模型憑借其獨特的技術(shù)優(yōu)勢,吸引了業(yè)界的廣泛關注。
    的頭像 發(fā)表于 09-25 14:11 ?360次閱讀

    歡創(chuàng)播報 騰訊元寶首發(fā)3D生成應用

    1 騰訊元寶首發(fā)3D生成應用 只需一張照片,便能迅速打造獨一無二的3D角色。7月16日,騰訊旗下大模型應用“騰訊元寶”上線了“3D角色夢工廠
    的頭像 發(fā)表于 07-18 11:39 ?815次閱讀
    歡創(chuàng)播報 騰訊元寶首發(fā)<b class='flag-5'>3D</b><b class='flag-5'>生成</b>應用

    奧比中光3D相機打造高質(zhì)量、低成本的3D動作捕捉與3D動畫內(nèi)容生成方案

    ? 在過去幾十年里,動作捕捉(MoCap)技術(shù)經(jīng)歷了顯著的發(fā)展,廣泛被應用于電影、游戲、虛擬現(xiàn)實、醫(yī)療等多個領域。近期,奧比中光合作客戶Moverse使用Orbbec Femto系列3D相機,打造
    的頭像 發(fā)表于 06-25 16:37 ?1134次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成式AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款模型在多方面均取得了顯著的進步,為創(chuàng)作者們帶來了前所未有的便利和可能性。
    的頭像 發(fā)表于 06-19 09:25 ?617次閱讀

    谷歌發(fā)布全新視頻生成模型Veo與Imagen文生圖模型

    谷歌近日宣布了兩項重大技術(shù)進展,首先是視頻生成模型Veo的正式推出。這款先進的模型能夠支持生成質(zhì)量更高的視頻內(nèi)容,讓用戶能夠根據(jù)自己的需求設定光照、鏡頭語言、
    的頭像 發(fā)表于 05-16 10:46 ?429次閱讀

    阿里云視頻生成技術(shù)創(chuàng)新!視頻生成使用了哪些AI技術(shù)和算法

    照片就能讓 EMO 合成演戲唱歌視頻。 ? 阿里云在視頻生成領域的創(chuàng)新 ? EMO(Emote Portrait Alive)是一個由阿里巴巴集團智能計算研究院開發(fā)的框架,一個音頻驅(qū)動的 AI 肖像
    的頭像 發(fā)表于 05-08 00:07 ?3448次閱讀

    NVIDIA生成式AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型)實現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?547次閱讀
    NVIDIA<b class='flag-5'>生成</b>式AI<b class='flag-5'>研究</b>實現(xiàn)在1秒內(nèi)<b class='flag-5'>生成</b><b class='flag-5'>3D</b>形狀

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個版本,僅需單幅圖片即可生成運動軌跡視頻,無須進行相機調(diào)整。擴充版本的SV3D_p加入了軌道
    的頭像 發(fā)表于 03-21 14:57 ?1086次閱讀

    新火種AI|圍攻光明頂:Sora效應下的AI視頻生成競賽

    Sora的出現(xiàn),讓AI視頻生成領域真正“活”了起來
    的頭像 發(fā)表于 03-16 11:12 ?678次閱讀

    openai發(fā)布首個視頻生成模型sora

    美國當?shù)貢r間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個文生視頻案例和技術(shù)報告 ,正式入局視頻生成領域 。Sora能夠根據(jù)提示詞生成60s的連貫
    的頭像 發(fā)表于 02-21 16:45 ?1357次閱讀

    AI視頻年大爆發(fā)!2023年AI視頻生成領域的現(xiàn)狀全盤點

    2023年,也是AI視頻元年。過去一年究竟有哪些爆款應用誕生,未來視頻生成領域面臨的難題還有哪些?
    的頭像 發(fā)表于 02-20 10:40 ?1366次閱讀
    AI<b class='flag-5'>視頻</b>年大爆發(fā)!2023年AI<b class='flag-5'>視頻生成</b>領域的現(xiàn)狀全盤點

    OpenAI發(fā)布文生視頻模型Sora,引領AI視頻生成新紀元

    在人工智能(AI)領域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成領域的局限,將平均
    的頭像 發(fā)表于 02-19 11:03 ?1011次閱讀

    OpenAI發(fā)布首個視頻生成模型Sora

    OpenAI近日宣布推出其全新的文本到視頻生成模型——Sora。這一突破性的技術(shù)將視頻創(chuàng)作帶入了一個全新的紀元,為用戶提供了前所未有的創(chuàng)作可能性。
    的頭像 發(fā)表于 02-18 10:07 ?1113次閱讀
    主站蜘蛛池模板: 456成人网 | 国内色视频 | 九九热re | 99久久精品费精品国产一区二 | 性感美女福利视频 | 2021日本三级理论影院 | 日韩毛片 | 19xxxxxxxxx日本69 2015xxxx欧美 | 狠狠色狠狠色综合日日小蛇 | 免费色片网站 | 狠狠干狠狠艹 | toyota东热综合网| 黄色国产在线视频 | 欧美人与z0zoxxxx| 98pao强力打造高清免费 | 男女交性特一级 | 性欧美黑人巨大videos | 高清视频一区二区三区 | 亚洲最大的成人网 | 91国内视频 | 香蕉爱爱视频 | 网站色| 色免费网站| 欧美性生交xxxxx久久久 | 好吊妞视频988在线播放 | 亚洲爽视频 | 亚洲欧美成人网 | 五月婷婷社区 | 来吧成人综合网 | 99色综合 | a网在线| 私色综合网 | 国产黄mmd在线观看免费 | 亚洲你我色 | 久久综合色综合 | 欧美xxxxbbbb在线播放 | 久久精品综合视频 | 国产精品17p| 午夜免费毛片 | 亚洲乱亚洲乱妇41p 亚洲乱亚洲乱妇41p国产成人 | 久久久精品波多野结衣 |