AI畫的簡(jiǎn)筆畫能到什么水平?
給一張美國(guó)演員Rami Malek的照片,效果是這樣的。
是不是和原圖很逼近了?
再來(lái)看下輸入《老友記》合影的效果。
雖然人物眾多,但出來(lái)的簡(jiǎn)筆畫效果,依舊還是能分清劇中的人物。
如果毛發(fā)特別濃密的人物照,AI還能hold得住嗎?
小姐姐“爆炸頭”的邊緣毛發(fā),也算得上是完美還原了。
再近距離一些的呢?來(lái)看“霉霉”(Taylor Swift)照片的效果。
可以說(shuō)是相當(dāng)?shù)募?xì)節(jié)了,把發(fā)絲的層次感、光感,以及衣物的褶皺,都發(fā)揮的“淋漓盡致”。
……
這些就是出自一個(gè)叫ArtLine的AI的作品。
而且它在Reddit非?;鸨?,已經(jīng)達(dá)到了1100+的熱度。
如此惟妙惟肖的效果,你是不是認(rèn)為又是GAN的功勞?
錯(cuò)!
ArtLine完全沒有用到GAN:
也正因如此,ArtLine的效果真真兒的驚艷到了網(wǎng)友。
那么,它是如何做到的呢?
ArtLine背后的三大“法寶”
ArtLine的作者十分爽快地分享了其背后的三大技術(shù):
Progressive Resizing
Generator Loss
接下來(lái),一起逐一看下各個(gè)技術(shù)背后的細(xì)節(jié)內(nèi)容。
Self-Attention部分引用的技術(shù),出自兩年前GAN之父lan Goodfellow等人提出的研究。
等等,剛才不是還說(shuō)“沒用到GAN”嗎?
作者對(duì)此的解釋是:
并沒有起到太大作用。
這項(xiàng)研究主要是在GAN生成中加入了注意力機(jī)制,同時(shí)將SNgan的思想引入到生成器當(dāng)中。
所要解決的是傳統(tǒng)GAN自身存在的一些問(wèn)題,例如:
使用小的卷積核很難發(fā)現(xiàn)圖像中的依賴關(guān)系
使用大的卷積核就會(huì)喪失卷積網(wǎng)絡(luò)參數(shù)與計(jì)算的效率
研究中核心的自注意力機(jī)制如下圖所示。
其中,f(x),g(x)和h(x)都是普通的1x1卷積,差別只在于輸出通道大小不同。
而后,將f(x)的輸出轉(zhuǎn)置,并和g(x)的輸出相乘,再經(jīng)過(guò)softmax歸一化,得到一個(gè)Attention Map。
得到Attention Map之后,和h(x)逐像素點(diǎn)相乘,得到自適應(yīng)的注意力feature maps。
從結(jié)果上來(lái)看,引入自注意力機(jī)制的效果,確實(shí)在FID和IS兩個(gè)性能指標(biāo)下,得到了較好的效果。
ArtLine涉及到的第二個(gè)技術(shù)靈感,來(lái)自英偉達(dá)在2018年的一項(xiàng)研究。
這項(xiàng)研究主要提出了一種新的訓(xùn)練對(duì)抗神經(jīng)網(wǎng)絡(luò)的方法。
核心思想是逐步訓(xùn)練生成器和判別器:從低分辨率開始,隨著訓(xùn)練進(jìn)程推進(jìn),逐步增加新的層來(lái)提煉細(xì)節(jié)。
這種方法不僅加快了訓(xùn)練速度并且更加穩(wěn)定,可以產(chǎn)生高質(zhì)量的圖像。
ArtLine所涉及到的最后一個(gè)技術(shù),是來(lái)自斯坦福大學(xué)李飛飛團(tuán)隊(duì)在2016年提出的研究。
這項(xiàng)研究主要解決了實(shí)現(xiàn)的風(fēng)格轉(zhuǎn)換,比較費(fèi)時(shí)的問(wèn)題。
風(fēng)格轉(zhuǎn)換部分主要用了上面的網(wǎng)絡(luò)模型,這個(gè)模型可以分為兩部分:左側(cè)是圖像轉(zhuǎn)換網(wǎng)絡(luò),而右側(cè)是損耗網(wǎng)絡(luò)。
其超分辨率重建也是采用上面的網(wǎng)絡(luò)模型,只是具體內(nèi)部的圖像轉(zhuǎn)換網(wǎng)絡(luò)部分稍有區(qū)別。
這個(gè)網(wǎng)絡(luò)與之前的研究相比,效果達(dá)到了相當(dāng)?shù)乃?,但速度卻提升了百倍之多,達(dá)到3個(gè)數(shù)量級(jí)。
關(guān)于作者
ArtLine的項(xiàng)目作者叫做Vijish Madhavan。
他在GitHub中坦言自己并非程序員出身,也道出了ArtLine目前存在的一些缺陷,例如處理像素低于500px的圖像時(shí),效果并不理想等。
現(xiàn)在,ArtLine可以在線玩了!
感興趣的讀者,可以戳下方鏈接體驗(yàn)一下。
Colab鏈接:
https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine(Try_it_on_Colab).ipynb.ipynb)
https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine.ipynb
GitHub項(xiàng)目地址:
https://github.com/vijishmadhavan/ArtLine
責(zé)任編輯:xj
原文標(biāo)題:這個(gè)AI“大師級(jí)”簡(jiǎn)筆畫水平,驚艷到了網(wǎng)友:竟然不用GAN
文章出處:【微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
-
AI
+關(guān)注
關(guān)注
88文章
34781瀏覽量
277158 -
GaN
+關(guān)注
關(guān)注
19文章
2190瀏覽量
76479
原文標(biāo)題:這個(gè)AI“大師級(jí)”簡(jiǎn)筆畫水平,驚艷到了網(wǎng)友:竟然不用GAN
文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
不知道怎么畫原理圖了



華為AI Calling解決方案打造AI時(shí)代業(yè)務(wù)入口
TDC7201-ZAX-EVM評(píng)估板的最高測(cè)量頻率能到多少?
DAC80501最大輸出帶寬只能到20KHz嗎?
DAC8718在單電源供電,雙電源供電下,輸出的模擬電壓最小能到多少?
TAS5715頻響為什么只能到6K?
THS4631單位增益能到325M我的電路單位增益只能到10幾M?
請(qǐng)問(wèn)LM2907進(jìn)行頻壓轉(zhuǎn)換時(shí),輸入頻率最高能到多少?
LM7171單電源供電時(shí),輸出低電平能到0V嗎?

評(píng)論