在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICLR 2023 Spotlight:2D圖像轉(zhuǎn)換3D

3D視覺工坊 ? 來源:機(jī)器之心 ? 2023-02-22 14:04 ? 次閱讀

背景

利用 NeRF 提供的可微渲染算法,三維生成算法,例如 EG3D、StyleSDF,在靜態(tài)物體類別的生成上已經(jīng)有了非常好的效果。但是人體相較于人臉或者 CAD 模型等類別,在外觀和幾何上有更大的復(fù)雜度,并且人體是可形變的,因此從二維圖片中學(xué)習(xí)三維人體生成仍然是非常困難的任務(wù)。研究人員在這個(gè)任務(wù)上已經(jīng)有了一些嘗試,例如 ENARF-GAN、GNARF,但是受限于低效的人體表達(dá),他們無(wú)法實(shí)現(xiàn)高分辨率的生成,因此生成質(zhì)量也非常低。

為了解決這個(gè)問題,本文提出了高效的組合的三維人體 NeRF 表示,用以實(shí)現(xiàn)高分辨率的(512x256)三維人體 GAN 訓(xùn)練與生成。下面將介紹本文提出的人體 NeRF 表示,以及三維人體 GAN 訓(xùn)練框架。

高效的人體 NeRF 表示

本文提出的人體 NeRF 基于參數(shù)化人體模型 SMPL,它提供了方便的人體姿勢(shì)以及形狀的控制。進(jìn)行 NeRF 建模時(shí),如下圖所示,本文將人體分為 16 個(gè)部分。每一個(gè)部分對(duì)應(yīng)于一個(gè)小的 NeRF 網(wǎng)絡(luò)進(jìn)行局部的建模。在渲染每一個(gè)局部的時(shí)候,本文只需要推理局部 NeRF。這種稀疏的渲染方式,在較低的計(jì)算資源下,也可以實(shí)現(xiàn)原生高分辨率的渲染。

例如,渲染體型動(dòng)作參數(shù)分別為的人體時(shí),首先根據(jù)相機(jī)參數(shù)采樣光線;光線上的采樣點(diǎn)根據(jù)與 SMPL 模型的相對(duì)關(guān)系進(jìn)行反向蒙皮操作(inverse linear blend skinning),將 posed 空間中的采樣點(diǎn)轉(zhuǎn)化到 canonical 空間中。接著計(jì)算 Canonical 空間的采樣點(diǎn)屬于某個(gè)或者某幾個(gè)局部 NeRF 的 bounding box 中,再進(jìn)行 NeRF 模型的推理,得到每個(gè)采樣點(diǎn)對(duì)應(yīng)的顏色與密度;當(dāng)某個(gè)采樣點(diǎn)落到多個(gè)局部 NeRF 的重疊區(qū)域,則會(huì)對(duì)每個(gè) NeRF 模型進(jìn)行推理,將多個(gè)結(jié)果用 window function 進(jìn)行插值;最后這些信息被用于光線的積分,得到最終的渲染圖。

6a815c24-b247-11ed-bfe3-dac502259ad0.png

三維人體 GAN 框架

基于提出的高效的人體 NeRF 表達(dá),本文實(shí)現(xiàn)了三維人體 GAN 訓(xùn)練框架。在每一次訓(xùn)練迭代中,本文首先從數(shù)據(jù)集中采樣一個(gè) SMPL 的參數(shù)以及相機(jī)參數(shù),并隨機(jī)生成一個(gè)高斯噪聲 z。利用本文提出的人體 NeRF,本文可以將采樣出的參數(shù)渲染成一張二維人體圖片,作為假樣本。再利用數(shù)據(jù)集中的真實(shí)樣本,本文進(jìn)行 GAN 的對(duì)抗訓(xùn)練。

6a97e642-b247-11ed-bfe3-dac502259ad0.png

極度不平衡的數(shù)據(jù)集

二維人體數(shù)據(jù)集,例如 DeepFashion,通常是為二維視覺任務(wù)準(zhǔn)備的,因此人體的姿態(tài)多樣性非常受限。為了量化不平衡的程度,本文統(tǒng)計(jì)了 DeepFashion 中模特臉部朝向的頻率。如下圖所示,橙色的線代表了 DeepFashion 中人臉朝向的分布,可見是極度不平衡的,對(duì)于學(xué)習(xí)三維人體表征造成了困難。為了緩解這一問題,我們提出了由人體姿態(tài)指導(dǎo)的采樣方式,將分布曲線拉平,如下圖中其他顏色的線所示。這可以讓訓(xùn)練過程中的模型見到更多樣以及更大角度的人體圖片,從而幫助三維人體幾何的學(xué)習(xí)。我們對(duì)采樣參數(shù)進(jìn)行了實(shí)驗(yàn)分析,從下面的表格中可見,加上人體姿態(tài)指導(dǎo)的采樣方式后,雖然圖像質(zhì)量(FID)會(huì)有些微下降,但是學(xué)出的三維幾何(Depth)顯著變好。

6ab2b4ae-b247-11ed-bfe3-dac502259ad0.png

6af69688-b247-11ed-bfe3-dac502259ad0.png

高質(zhì)量的生成結(jié)果

下圖展示了一些 EVA3D 的生成結(jié)果,EVA3D 可以隨機(jī)采樣人體樣貌,并可控制渲染相機(jī)參數(shù),人體姿勢(shì)以及體型。

6b06bf04-b247-11ed-bfe3-dac502259ad0.png

本文在四個(gè)大規(guī)模人體數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),分別是 DeepFashion,SHHQ,UBCFashion,AIST。該研究對(duì)比了最先進(jìn)的靜態(tài)三維物體生成算法 EG3D 與 StyleSDF。同時(shí)研究者也比較了專門針對(duì)三維人生成的算法 ENARF-GAN。在指標(biāo)的選擇上,本文兼顧渲染質(zhì)量的評(píng)估(FID/KID)、人體控制的準(zhǔn)確程度(PCK)以及幾何生成的質(zhì)量(Depth)。如下圖所示,本文在所有數(shù)據(jù)集,所有指標(biāo)上均大幅超越之前的方案。

6b3cf0d8-b247-11ed-bfe3-dac502259ad0.png

應(yīng)用潛力

最后,本文也展示了 EVA3D 的一些應(yīng)用潛力。首先,該研究測(cè)試了在隱空間中進(jìn)行差值。如下圖所示,本文能夠在兩個(gè)三維人之間進(jìn)行平滑的變化,且中間結(jié)果均保持較高的質(zhì)量。此外,本文也進(jìn)行了 GAN inversion 的實(shí)驗(yàn),研究者使用二維 GAN inversion 中常用的算法 Pivotal Tuning Inversion。如下面右圖所示,該方法可以較好的還原重建目標(biāo)的外觀,但是幾何部分丟失了很多細(xì)節(jié)。可見,三維 GAN 的 inversion 仍然是一個(gè)很有挑戰(zhàn)性的任務(wù)。

6b679afe-b247-11ed-bfe3-dac502259ad0.png

結(jié)語(yǔ)

本文提出了首個(gè)高清三維人體 NeRF 生成算法 EVA3D,并且僅需使用二維人體圖像數(shù)據(jù)即可訓(xùn)練。EVA3D 在多個(gè)大規(guī)模人體數(shù)據(jù)集上性能達(dá)到最佳,并且展現(xiàn)出了在下游任務(wù)上進(jìn)行應(yīng)用的潛力。EVA3D 的訓(xùn)練與測(cè)試代碼均已經(jīng)開源,歡迎大家前去試用!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4699

    瀏覽量

    94763
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1092

    瀏覽量

    41033
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2177

    瀏覽量

    76178

原文標(biāo)題:ICLR 2023 Spotlight | 2D圖像轉(zhuǎn)換3D

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何同時(shí)獲取2d圖像序列和相應(yīng)的3d點(diǎn)云?

    如何同時(shí)獲取2d圖像序列和相應(yīng)的3d點(diǎn)云?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d image and corresponding
    發(fā)表于 11-13 11:25

    請(qǐng)問怎么才能將AD中的3D封裝庫(kù)轉(zhuǎn)換2D的封裝庫(kù)?

    請(qǐng)問怎么將AD中的3D封裝庫(kù)轉(zhuǎn)換2D的封裝庫(kù)
    發(fā)表于 06-05 00:35

    為什么3D2D模型不能相互轉(zhuǎn)換

    AD17.1.5軟件,3D2D模型不能相互轉(zhuǎn)換,按3可以進(jìn)入3D模型,按2不可以進(jìn)入
    發(fā)表于 09-20 05:35

    全球首款2D/3D視頻轉(zhuǎn)換實(shí)時(shí)處理芯片:DA8223

      Dialog半導(dǎo)體股份有限公司日前宣布推出全球首款2D/3D影像轉(zhuǎn)換實(shí)時(shí)處理芯片:DA8223.該芯片為包括智能手機(jī)和平板電腦等在內(nèi)的各種便攜式設(shè)備提供了2D/
    發(fā)表于 12-14 09:17 ?5392次閱讀

    2D3D視頻自動(dòng)轉(zhuǎn)換系統(tǒng)

    完成系統(tǒng)界面的設(shè)置及控制、顯示等功能,其DSP處理器實(shí)現(xiàn)圖像分割和渲染等核心算法,實(shí)現(xiàn)了1個(gè)高效的2D3D視頻的視頻轉(zhuǎn)換系統(tǒng)。2D轉(zhuǎn)
    發(fā)表于 03-06 14:20 ?1次下載
    <b class='flag-5'>2D</b>到<b class='flag-5'>3D</b>視頻自動(dòng)<b class='flag-5'>轉(zhuǎn)換</b>系統(tǒng)

    如何把OpenGL中3D坐標(biāo)轉(zhuǎn)換2D坐標(biāo)

    在OpenGL中,一切事物都在3D空間中,但我們的屏幕坐標(biāo)確實(shí)2D像素?cái)?shù)組,OpenGL大部分工作就是把3D坐標(biāo)轉(zhuǎn)換成適應(yīng)屏幕的2D像素。
    的頭像 發(fā)表于 07-09 10:40 ?8798次閱讀

    微軟新AI框架可在2D圖像上生成3D圖像

    已經(jīng)有不少機(jī)構(gòu)在將 2D 圖像轉(zhuǎn)換3D 形式的方面進(jìn)行了嘗試,包括 Facebook、Nvidia 等公司的 AI 研究實(shí)驗(yàn)室,或是類似 Threedy.AI 這樣的初創(chuàng)公司。
    的頭像 發(fā)表于 03-07 14:23 ?3244次閱讀

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團(tuán)隊(duì)研發(fā)了全新3D AI算法,可基于2D圖片精準(zhǔn)搜索出相應(yīng)的
    的頭像 發(fā)表于 12-04 15:49 ?3853次閱讀

    谷歌發(fā)明的由2D圖像生成3D圖像技術(shù)解析

    谷歌發(fā)明的由2D圖像生成3D圖像的技術(shù),利用3D估計(jì)神經(jīng)網(wǎng)絡(luò)圖像信息的補(bǔ)全以及預(yù)測(cè),融合了拍攝角
    的頭像 發(fā)表于 12-24 12:55 ?5036次閱讀
    谷歌發(fā)明的由<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>生成<b class='flag-5'>3D</b><b class='flag-5'>圖像</b>技術(shù)解析

    3d人臉識(shí)別和2d人臉識(shí)別的區(qū)別

    首先是3d人臉識(shí)別和2d人臉識(shí)別圖像數(shù)據(jù)獲取不同。3D人臉識(shí)別是以3D攝像頭立體成像,而2D是以
    發(fā)表于 02-05 16:00 ?5.1w次閱讀

    如何直接建立2D圖像中的像素和3D點(diǎn)云中的點(diǎn)之間的對(duì)應(yīng)關(guān)系

    準(zhǔn)確描述和檢測(cè) 2D3D 關(guān)鍵點(diǎn)對(duì)于建立跨圖像和點(diǎn)云的對(duì)應(yīng)關(guān)系至關(guān)重要。盡管已經(jīng)提出了大量基于學(xué)習(xí)的 2D3D 局部特征描述符和
    的頭像 發(fā)表于 10-18 09:20 ?9842次閱讀

    使用Python從2D圖像進(jìn)行3D重建過程詳解

    有許多不同的方法和算法可用于從2D圖像執(zhí)行3D重建。選擇的方法取決于諸如輸入圖像的質(zhì)量、攝像機(jī)校準(zhǔn)信息的可用性以及重建的期望準(zhǔn)確性和速度等因素。
    的頭像 發(fā)表于 12-05 14:07 ?4103次閱讀
    使用Python從<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>進(jìn)行<b class='flag-5'>3D</b>重建過程詳解

    2D3D視覺技術(shù)的比較

    作為一個(gè)多年經(jīng)驗(yàn)的機(jī)器視覺工程師,我將詳細(xì)介紹2D3D視覺技術(shù)的不同特點(diǎn)、應(yīng)用場(chǎng)景以及它們能夠解決的問題。在這個(gè)領(lǐng)域內(nèi),2D3D視覺技術(shù)是實(shí)現(xiàn)自動(dòng)化和智能制造的關(guān)鍵技術(shù),它們?cè)诠I(yè)
    的頭像 發(fā)表于 12-21 09:19 ?1693次閱讀

    一文了解3D視覺和2D視覺的區(qū)別

    一文了解3D視覺和2D視覺的區(qū)別 3D視覺和2D視覺是兩種不同的視覺模式,其區(qū)別主要體現(xiàn)在立體感、深度感和逼真度上。本文將詳細(xì)闡述這些區(qū)別,并解釋為什么
    的頭像 發(fā)表于 12-25 11:15 ?4246次閱讀

    AN-1249:使用ADV8003評(píng)估板將3D圖像轉(zhuǎn)換2D圖像

    電子發(fā)燒友網(wǎng)站提供《AN-1249:使用ADV8003評(píng)估板將3D圖像轉(zhuǎn)換2D圖像.pdf》資料免費(fèi)下載
    發(fā)表于 01-08 14:28 ?0次下載
    AN-1249:使用ADV8003評(píng)估板將<b class='flag-5'>3D</b><b class='flag-5'>圖像</b><b class='flag-5'>轉(zhuǎn)換</b>成<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>
    主站蜘蛛池模板: bt天堂资源种子在线 | 亚洲第成色999久久网站 | 黄视频网站免费观看 | 欧美性极品高清 | 亚洲午夜免费视频 | 久久青草免费免费91线频观看 | 亚洲一区二区在线免费观看 | 午夜网站在线播放 | 欧美成人免费全部观看天天性色 | 赛罗奥特曼银河帝国普通话免费版 | 色之综综| 美女被异性狂揉下部羞羞视频 | 国产欧美综合在线 | 全是肉的高h短篇列车 | 播放欧亚一级特黄录像 | 国产精品资源网 | 丁香花高清在线观看 | 免费黄色欧美 | 一区二区三区国模大胆 | 在线播放色 | 两性色午夜视频免费网 | 免费一级片在线观看 | 日本高清午夜色wwwσ | 在线视频毛片 | 欧美精品黑人性xxxx | 一级日本大片免费观看视频 | 毛片免费网站 | 日本一区二区三区在线 视频观看免费 | 天天干天天爱天天射 | 秋霞特色大片18入口私人高清 | 精品视频免费看 | 婷婷网址 | 美女扒开尿口给男人爽免费视频 | 都市激情综合 | 五月婷婷丁香在线观看 | 四虎影视亚洲精品 | 亚洲一区在线免费观看 | 亚洲国产婷婷综合在线精品 | 亚洲qingse| free性欧美69高清 | 天天干天天草天天 |