在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視頻P圖新SOTA:推理速度快近15倍

OpenCV學(xué)堂 ? 來(lái)源:量子位 ? 作者:量子位 ? 2022-05-24 09:45 ? 次閱讀

眾所周知:視頻是可以P的。

這不,在CVPR 2022收錄的論文中,就出現(xiàn)了這么一個(gè)P圖神器,它可以分分鐘給你上演各種人像消失大法,不留任何痕跡。

去水印、填補(bǔ)缺失更是不在話(huà)下,并且各種分辨率的視頻都能hold住。

正如你所見(jiàn),這個(gè)模型如此絲滑的表現(xiàn)讓它在兩個(gè)基準(zhǔn)數(shù)據(jù)集上都實(shí)現(xiàn)了SOTA性能。

812b2f9a-daac-11ec-ba43-dac502259ad0.png

△與SOTA方法的對(duì)比

同時(shí)它的推理時(shí)間和計(jì)算復(fù)雜表現(xiàn)也很搶眼:

前者比此前的方法快了近15倍,可以在Titan XP GPU上以每幀0.12秒的速度處理432 × 240的視頻;后者則是在所有比較的SOTA方法中實(shí)現(xiàn)了最低的FLOPs分?jǐn)?shù)。

如此神器,什么來(lái)頭?

改善光流法

目前很多視頻修復(fù)算法利用的都是光流法(Optical flow)。

也就是利用圖像序列中像素在時(shí)間域上的變化以及相鄰幀之間的相關(guān)性,找到上一幀跟當(dāng)前幀之間存在的對(duì)應(yīng)關(guān)系,從而計(jì)算出相鄰幀之間物體的運(yùn)動(dòng)信息。

這個(gè)方法的缺點(diǎn)很明顯:計(jì)算量大、耗時(shí)長(zhǎng),也就是效率低。

為此,研究人員設(shè)計(jì)了三個(gè)可訓(xùn)練模塊,分別為流完成(flow completion)、特征傳播(feature propagation)和內(nèi)容幻想(content hallucination),提出了一個(gè)流引導(dǎo)(flow-guided)的端到端視頻修復(fù)框架:

E2FGVI。

這三個(gè)模塊與之前基于光流的方法的三個(gè)階段相對(duì)應(yīng),不過(guò)可以進(jìn)行聯(lián)合優(yōu)化,從而實(shí)現(xiàn)更高效的修復(fù)過(guò)程。

8179012a-daac-11ec-ba43-dac502259ad0.png

具體來(lái)說(shuō),對(duì)于流完成模塊,該方法直接在mask viedo中一步完成操作,而不是像此前方法采用多個(gè)復(fù)雜的步驟。

對(duì)于特征傳播模塊,與此前的像素級(jí)傳播相比,該方法中的流引導(dǎo)傳播過(guò)程在特征空間中借助可變形卷積進(jìn)行。

通過(guò)更多可學(xué)習(xí)的采樣偏移和特征級(jí)操作,傳播模塊釋放了此前不能準(zhǔn)確進(jìn)行流估計(jì)的壓力。

對(duì)于內(nèi)容幻想模塊,研究人員則提出了一種時(shí)間焦點(diǎn)Transformer來(lái)有效地建模空間和時(shí)間維度上的長(zhǎng)程依賴(lài)關(guān)系。

同時(shí)該模塊還考慮了局部和非局部時(shí)間鄰域,從而獲得更具時(shí)間相關(guān)性的修復(fù)結(jié)果。

81a552fc-daac-11ec-ba43-dac502259ad0.png

作者:希望成為新基線

定量實(shí)驗(yàn):

研究人員在數(shù)據(jù)集YouTube VOS和DAVIS上進(jìn)行了定量實(shí)驗(yàn),將他們的方法與之前的視頻修復(fù)方法進(jìn)行了比較。

如下表所示,E2FGVI在全部四個(gè)量化指標(biāo)上都遠(yuǎn)遠(yuǎn)超過(guò)了這些SOTA算法,能夠生成變形更少(PSNR和SSIM)、視覺(jué)上更合理(VFID)和時(shí)空一致性更佳(Ewarp)的修復(fù)視頻,驗(yàn)證了該方法的優(yōu)越性。

81ddb930-daac-11ec-ba43-dac502259ad0.png

此外,E2FGVI也具有最低的FLOPs值(計(jì)算復(fù)雜度),盡管訓(xùn)練是在432 × 240分辨率的視頻上進(jìn)行,它的HQ版本做到了支持任意分辨率。

82209444-daac-11ec-ba43-dac502259ad0.png

定性實(shí)驗(yàn):

研究人員首先選擇了三種最有代表性的方法,包括CAP、FGVC(基于光流法)和Fuseformer(入選ICCV 2021),進(jìn)行對(duì)象移除(下圖前三行)和缺失補(bǔ)全(下圖后兩行)的效果比較。

可以發(fā)現(xiàn),前三種方法很難在遮擋區(qū)域恢復(fù)出合理的細(xì)節(jié)、擦除人物也會(huì)造成模糊,但E2FGVI可以生成相對(duì)真實(shí)的紋理和結(jié)構(gòu)信息。

824b6d22-daac-11ec-ba43-dac502259ad0.png

此外,它們還選用了5種方法進(jìn)行了用戶(hù)研究,結(jié)果大部分人都對(duì)E2FGVI修復(fù)后的效果更滿(mǎn)意。

綜上,研究人員也表示,希望他們提出的方法可以成為視頻修復(fù)領(lǐng)域新的強(qiáng)大基線。

作者介紹

82ac4304-daac-11ec-ba43-dac502259ad0.png

E2FGVI由南開(kāi)大學(xué)和海思合作完成。

一作Li Zhen為南開(kāi)大學(xué)博士生,共同一作Lu ChengZe也來(lái)自南開(kāi)。

通訊作者為南開(kāi)大學(xué)計(jì)算機(jī)學(xué)院教授程明明,主要研究方向是計(jì)算機(jī)視覺(jué)和圖形學(xué)。

目前,E2FGVI的代碼已經(jīng)開(kāi)源,作者也提供了Colab實(shí)現(xiàn),未來(lái)還將在Hugging Face給出demo。

論文地址: https://arxiv.org/abs/2204.02663

GitHub主頁(yè): https://github.com/MCG-NKU/E2FGVI

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:CVPR 2022 | 視頻P圖新SOTA:推理速度快近15倍,任意分辨率均可上演人像消失大法

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DeepSeek最新論文:訓(xùn)練速度提升9推理速度快11

    是上一代Grok2的15左右。在Benchmarks中,Grok3毫無(wú)懸念成功地領(lǐng)先Deepseek R1、o3 mini等對(duì)手。 ? 不過(guò)用如此大規(guī)模的算力集群,花費(fèi)上一代15
    的頭像 發(fā)表于 02-20 11:25 ?1993次閱讀
    DeepSeek最新論文:訓(xùn)練<b class='flag-5'>速度</b>提升9<b class='flag-5'>倍</b>,<b class='flag-5'>推理</b><b class='flag-5'>速度快</b>11<b class='flag-5'>倍</b>!

    RK3588核心板在邊緣AI計(jì)算中的顛覆性?xún)?yōu)勢(shì)與場(chǎng)景落地

    、ResNet50等模型,推理速度較純CPU方案(如i.MX8)5-10,無(wú)需外接加速卡。 全接口覆蓋: 原生支持PCIe 3.0、雙千兆網(wǎng)口、USB 3.1 Gen2、SATA
    發(fā)表于 04-15 10:48

    YOLOv5類(lèi)中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會(huì)達(dá)到更好的效果?

    YOLOv5類(lèi)中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    使用修改后的基準(zhǔn)C++工具推斷灰度圖像時(shí)的推理速度慢怎么解決?

    修改了 基準(zhǔn)測(cè)試 C++ 工具 ,以加載灰度圖像。 獲得的推理速度非常低。
    發(fā)表于 03-06 07:11

    k230如何將yolo分類(lèi)視頻推理后的視頻結(jié)果保存到本地?

    請(qǐng)問(wèn)k230如何將yolo分類(lèi)視頻推理后的視頻結(jié)果保存到本地?
    發(fā)表于 02-08 08:09

    中國(guó)電提出大模型推理加速新范式Falcon

    中提出的 Falcon 方法是一種 增強(qiáng)半自回歸投機(jī)解碼框架 ,旨在增強(qiáng) draft model 的并行性和輸出質(zhì)量,以有效提升大模型的推理速度。Falcon 可以實(shí)現(xiàn)約 2.91-3.51 的加速比,在多種數(shù)據(jù)集上獲得了很好
    的頭像 發(fā)表于 01-15 13:49 ?801次閱讀
    中國(guó)電提出大模型<b class='flag-5'>推理</b>加速新范式Falcon

    在ARM上實(shí)現(xiàn)模擬視頻的實(shí)時(shí)解碼,模擬相機(jī)的速度為1080p 30fps,TVP5150能達(dá)到這個(gè)速度嗎?

    最近需要在ARM上實(shí)現(xiàn)模擬視頻的實(shí)時(shí)解碼,模擬相機(jī)的速度為1080p 30fps, 我在這里想咨詢(xún)一下TVP5150能達(dá)到這個(gè)速度
    發(fā)表于 12-20 07:57

    谷歌正式發(fā)布Gemini 2.0 性能提升

    2.0在關(guān)鍵基準(zhǔn)測(cè)試中相比前代產(chǎn)品Gemini 1.5 Pro的性能提升了。該模型支持圖像、視頻和音頻等多種輸入與輸出形式,例如可以實(shí)現(xiàn)文本與圖像的混合生成以及自定義的多語(yǔ)言文本轉(zhuǎn)語(yǔ)音(TTS)內(nèi)容。 此外,Gemini
    的頭像 發(fā)表于 12-12 14:22 ?775次閱讀

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來(lái)越多,從目前的市場(chǎng)來(lái)說(shuō),有些公司已經(jīng)有了專(zhuān)門(mén)做推理的ASIC,像Groq的LPU,專(zhuān)門(mén)針對(duì)大語(yǔ)言模型的推理做了優(yōu)化,因此相比GPU這種通過(guò)計(jì)算平臺(tái),功耗更低、
    的頭像 發(fā)表于 10-29 14:12 ?1888次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b>加速中的應(yīng)用

    6G測(cè)試速度達(dá)938Gbps,比5G速度快5000

    智能手機(jī)網(wǎng)絡(luò)連接速度的5000。典型的5G運(yùn)行速度約為200Mbps,而在實(shí)際使用中,由于信號(hào)連接問(wèn)題,其提供的速度往往遠(yuǎn)低于100Mbps。
    的頭像 發(fā)表于 10-22 16:27 ?1111次閱讀

    內(nèi)存儲(chǔ)器的特點(diǎn)是速度快成本低容量小對(duì)嗎

    內(nèi)存儲(chǔ)器,通常指的是計(jì)算機(jī)系統(tǒng)中的隨機(jī)存取存儲(chǔ)器(RAM),是計(jì)算機(jī)硬件的重要組成部分。它負(fù)責(zé)存儲(chǔ)計(jì)算機(jī)運(yùn)行時(shí)的數(shù)據(jù)和程序,以便處理器快速訪問(wèn)。內(nèi)存儲(chǔ)器的特點(diǎn)包括速度快、容量相對(duì)較小,但成本并不是
    的頭像 發(fā)表于 10-14 10:05 ?1509次閱讀

    迅為【AI深度學(xué)習(xí)推理加速器】RKNPU2 從入門(mén)到實(shí)踐視頻教程3568開(kāi)發(fā)板

    P1-00 前言-05:13 P2-01 初識(shí)RKNPU-17:08 P3-02 RKNPU軟件推理框架-20:05 P4-03_RKNN
    發(fā)表于 08-14 11:12

    超高速直線模組究竟有多快?飛創(chuàng)直線模組最快速度是多少?

    超高速直線模組速度每秒幾毫米至幾十米。飛創(chuàng)直線模組速度快,提供定制化服務(wù)。選擇時(shí)需考慮負(fù)載、行程、精度等因素,不同品牌和型號(hào)性能各異。
    的頭像 發(fā)表于 08-07 09:57 ?734次閱讀
    超高速直線模組究竟有多快?飛創(chuàng)直線模組最快<b class='flag-5'>速度</b>是多少?

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行
    的頭像 發(fā)表于 07-24 11:38 ?1698次閱讀

    Anthropic 發(fā)布Claude 3.5 Sonnet模型運(yùn)行速度是Claude 3 Opus的兩

    Anthropic 發(fā)布Claude 3.5 Sonnet最新模型 新模型在推理、知識(shí)和編碼能力評(píng)估方面超越了以前的版本和競(jìng)爭(zhēng)對(duì)手GPT 4o模型,同時(shí)其運(yùn)行速度是Claude 3 Opus的兩
    的頭像 發(fā)表于 06-21 15:43 ?1356次閱讀
    Anthropic 發(fā)布Claude 3.5 Sonnet模型運(yùn)行<b class='flag-5'>速度</b>是Claude 3 Opus的兩<b class='flag-5'>倍</b>
    主站蜘蛛池模板: 狠狠干天天干 | 黄色美女网址 | 免费一级成人毛片 | 免费能直接在线观看黄的视频 | 夜夜爽天天操 | 天天做天天爱天天射 | 777色淫网站女女免费 | 亚洲免费成人在线 | 成人欧美一区二区三区视频不卡 | 美女视频一区 | 欧美性三级 | 色网址在线 | 亚洲va国产日韩欧美精品色婷婷 | 一级做a爱片就在线看 | 91成人免费观看 | 免费一级在线观看 | 奇米影视777四色米奇影院 | 黄色大片三级 | 深夜福利欧美 | 日本特黄特色特爽大片老鸭 | 亚洲 欧美 视频 | 亚洲人与牲动交xxxxbbbb | 成人小视频在线 | 男女交性视频免费播放 | 在线播放ww | 日日艹 | 亚洲色图在线播放 | 中国同志chinese小彬tv | 四虎国产精品永久地址49 | 日韩毛片在线视频 | 69久久夜色精品国产69小说 | 亚洲综合国产一区二区三区 | 在线免费成人网 | jizjizjizjiz日本护士出水 | 一级毛毛片毛片毛片毛片在线看 | 亚洲精品日韩专区silk | 萝l在线精品社区资源 | 狠狠干奇米 | 乱h亲女小说 | 99r8这里精品热视频免费看 | 天堂在线观看 |