在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

能生成Deepfake也能診斷癌癥,GAN與惡的距離

Hf1h_BigDataDig ? 來源:YXQ ? 2019-07-09 10:17 ? 次閱讀

GAN可能是最近人工智能圈最為人熟知的技術(shù)之一。但是它的爆火不僅是由于這個技術(shù)出神入化的好用,還因為由他催生的相關(guān)應(yīng)用導(dǎo)致了各種倫理道德問題。

最受關(guān)注的當(dāng)然是Deepfake(深度偽造),這款操作容易且效果完美的換臉應(yīng)用,讓人們談“GAN”色變。

而近期,Deepfake甚至有了升級版,走紅網(wǎng)絡(luò)的一鍵生成裸照軟件DeepNude,只要輸入一張完整的女性圖片就可自動生成相應(yīng)的裸照,由于廣泛傳播而造成了預(yù)料之外的后果,開發(fā)者最終將APP下架。

被一鍵脫衣的霉霉

相關(guān)技術(shù)引發(fā)了一系列社會后果,并且引發(fā)了政府立法部門的重視。2019年6月13日,美國眾議院情報委員會召開關(guān)于人工智能深度偽造的聽證會,公開談?wù)摿松疃葌卧旒夹g(shù)對國家、社會和個人的風(fēng)險及防范和應(yīng)對措施。

讓人嗤之以鼻的同時,真正的研究者們也在用GAN推動人類社會的發(fā)展。據(jù)《MIT科技評論》報道,呂貝克大學(xué)研究人員近期剛剛利用deepfake背后同樣的技術(shù),合成了與真實影像無異的醫(yī)學(xué)圖像,解決了沒有足夠的訓(xùn)練數(shù)據(jù)的問題,而這些圖像將可以用于訓(xùn)練AI通過X光影像發(fā)現(xiàn)不同的癌癥。

那么,技術(shù)本身就存在原罪么?又是哪里出了錯呢?

讓我們回到GAN誕生的那天,從頭回顧這一讓人又愛又恨的技術(shù)發(fā)展的前世今生。

GAN的誕生故事:一場酒后的奇思妙想

時間拉回到2014年的一晚,Ian Goodfellow和一個剛剛畢業(yè)的博士生一起喝酒慶祝。在蒙特利爾一個酒吧,一些朋友希望他能幫忙看看手頭上一個棘手的項目:計算機如何自己生成圖片。

研究人員已經(jīng)使用了神經(jīng)網(wǎng)絡(luò)模擬人腦的神經(jīng)元網(wǎng)絡(luò)的一種算法),作為生成模型來創(chuàng)造合理的新數(shù)據(jù)。但結(jié)果往往不盡人意。計算機生成的人臉圖像通常不是模糊不清,就是缺耳少鼻。

Ian Goodfellow朋友們提出的方案是對那些組成圖片的元素進行復(fù)雜的統(tǒng)計分析以幫助機器自己生成圖片。這需要進行大量的數(shù)據(jù)運算,Ian Goodfellow告訴他們這根本行不通。

邊喝啤酒邊思考問題時,他突然有了一個想法。如果讓兩個神經(jīng)網(wǎng)絡(luò)相互對抗會出現(xiàn)什么結(jié)果呢?他的朋友對此持懷疑態(tài)度。

當(dāng)他回到家,他女朋友已經(jīng)熟睡,他決定馬上實驗自己的想法。那天他一直寫代碼寫到凌晨,然后進行測試。第一次運行就成功了!

那天晚上他提出的方法現(xiàn)在叫做GAN,即生成對抗網(wǎng)絡(luò)(generative adversarial network)。

Goodfellow自己可能沒想到這個領(lǐng)域會發(fā)展得如此迅速,GAN的應(yīng)用會如此廣泛。

下面我們先來看幾張照片。

如果你沒有親眼看到我去過的地方,那就可以認為這些照片完全是假的。

當(dāng)然,我并不是說這些都是ps的或者CGI編輯過的,無論Nvidia稱他們的新技術(shù)是如何了得,那也只是圖片,不是真實的世界。

也就是說,這些圖像完全是用GPU計算層層疊加,并且通過燒錢生成的。

能夠做出這些東西的算法就是對抗生成網(wǎng)絡(luò),對于那些剛開始學(xué)習(xí)機器學(xué)習(xí)的人而言,編寫GAN是一個漫長的旅途。在過去的幾年中,基于對抗生成網(wǎng)絡(luò)應(yīng)用的創(chuàng)新越來越多,甚至比Facebook上發(fā)生的隱私丑聞還多。

2014年以來GANs不斷進行改進才有了如今的成就,但是要一項一項來回顧這個過程,就像是要重新看一遍長達八季的“權(quán)力的游戲”,非常漫長。所以,在此我將僅僅重溫這些年來GAN研究中一些酷炫成果背后的關(guān)鍵思想。

我不準備詳細解釋轉(zhuǎn)置卷積(transposed convolutions)和瓦瑟斯坦距離(Wasserstein distance)等概念。相反,我將提供一些我覺得比較好的資源鏈接,你可以使用這些資源快速了解這些概念,這樣你就可以看到它們在算法中是如何使用的。

下文的閱讀需要你掌握深度學(xué)習(xí)的基礎(chǔ)知識,并且知道卷積神經(jīng)網(wǎng)絡(luò)的工作原理,否則讀起來可能會有點難度。

鑒于此,先上一張GAN發(fā)展路線圖:

GAN路線圖

圖中的過程我們將在下文一步一步地講解。讓我們先來看看內(nèi)容大綱吧。

GAN:Generative Adversarial Networks

DCGAN:Deep Convolutional Generative Adversarial Network

CGAN:Conditional Generative Adversarial Network

CycleGAN

CoGAN:Coupled Generative Adversarial Networks

ProGAN:Progressive growing of Generative Adversarial Networks

WGAN:Wasserstein Generative Adversarial Networks

SAGAN:Self-Attention Generative Adversarial Networks

BigGAN:Big Generative Adversarial Networks

StyleGAN:Style-based Generative Adversarial Networks

GAN:Generative Adversarial Networks

看到這張圖你首先想到的是什么,是不是覺得這像素也太低了,還看得人難受,尤其是對于密集恐懼癥患者來說,這張圖片看起來像是某個數(shù)學(xué)書呆子在excel表中放大了一張縮小的照片。

我們來看看這圖片究竟是什么?

看完視頻是不是發(fā)現(xiàn)除了Excel,其他都猜對了。

早在2014年,Ian Goodfellow提出了這個革命性的想法——讓兩個神經(jīng)網(wǎng)絡(luò)互相競爭(或合作,這是一個視角問題)。

感興趣的同學(xué)可以查看Ian Goodfellow 提出GAN時的原文。

論文鏈接:

https://arxiv.org/abs/1406.2661

代碼鏈接:

https://github.com/goodfeli/adversarial

作者相關(guān)論文鏈接:

https://arxiv.org/abs/1701.00160

一個神經(jīng)網(wǎng)絡(luò)試圖生成真實數(shù)據(jù)(注意:GAN可用于給任何數(shù)據(jù)分布建模,但近來其主要用于圖像),而另一個神經(jīng)網(wǎng)絡(luò)則試圖判別真實數(shù)據(jù)和生成器網(wǎng)絡(luò)生成的數(shù)據(jù)。

生成器網(wǎng)絡(luò)使用判別器作為損失函數(shù),并更新其參數(shù)以生成看起來更真實的數(shù)據(jù)。

另一方面,判別器網(wǎng)絡(luò)更新其參數(shù)以使其更好地從真實數(shù)據(jù)中鑒別出假數(shù)據(jù),所以它這方面的工作會變得更好。

這就像貓和老鼠的游戲,持續(xù)進行,直到系統(tǒng)達到所謂的“平衡”,其中生成器能夠生成看起來足夠真實的數(shù)據(jù),然后判別器則輕易就能正確判斷真假。

到目前為止,如果順利的話,你的代碼無誤,亞馬遜也沒有斃掉你的spot實例(順便說一句,如果使用FloydHub就不會出現(xiàn)這個問題,因為他們提供了備用的GPU機器),那么你現(xiàn)在就留下了一個能從同樣的數(shù)據(jù)分布中準確生成新數(shù)據(jù)的生成器,它生成的數(shù)據(jù)則可以成為你的訓(xùn)練集。

這只是非常簡單的一種GAN。到此,你應(yīng)該掌握GAN就是使用了兩個神經(jīng)網(wǎng)絡(luò)——一個用于生成數(shù)據(jù),一個是用來對假數(shù)據(jù)和真實數(shù)據(jù)進行判別。理論上,您可以同時訓(xùn)練它們,然后不斷迭代,直至收斂,這樣生成器就可以生成全新的,逼真的數(shù)據(jù)。

DCGAN:Deep Convolutional Generative Adversarial Network

論文:

https://arxiv.org/abs/1511.06434

代碼:

https://github.com/floydhub/dcgan

其他文章:

https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0

看原文是非常慢的,看本文將為您節(jié)省一些時間。

先來看幾個公式:

卷積=擅長圖片

GANs=擅長生成一些數(shù)據(jù)

由此推出:卷積+GANs=擅長生成圖片

事后看來,正如Ian Goodfellow自己在與Lex Fridman的播客中指出的那樣,將這個模型稱為DCGAN(“深度卷積生成對抗網(wǎng)絡(luò)”的縮寫)似乎很愚蠢,因為現(xiàn)在幾乎所有與深度學(xué)習(xí)和圖像相關(guān)的內(nèi)容都是深度的(deep)和卷積的(convolutional)。

此外,當(dāng)大多數(shù)人了解到GANs時,都會先學(xué)習(xí)“深度學(xué)習(xí)和卷積”(deep and convolutional)。

然而,有一段時間GANs不一定會使用基于卷積的操作,而是依賴于標準的多層感知器架構(gòu)。

DCGAN通過使用稱為轉(zhuǎn)置卷積運算(transposed convolution operation)來改變了這一現(xiàn)狀,它還有個不太好聽的名字——反卷積層( Deconvolution layer)。

轉(zhuǎn)置卷積是一種提升運算,它幫助我們將低分辨率圖像轉(zhuǎn)換為更高分辨率的圖像。

但是嚴格來說,如果您要掌握轉(zhuǎn)置卷積原理,只看上文介紹不夠,是需要深入研究鏈接里的資源,畢竟這是現(xiàn)代所有GAN架構(gòu)的基礎(chǔ)。

如果你沒有足夠多的的時間來看,我們可以通過一個總結(jié)得很好的動畫來了解轉(zhuǎn)置卷積是如何工作:

在一般的卷積神經(jīng)網(wǎng)絡(luò)中,你會用一系列卷積(以及其他操作)將圖像映射到通常是較低維度的向量。

類似地,運用多個反卷積允許我們映射出單個低分辨率的陣列,并使之成為鮮明的全彩圖像。

在我們繼續(xù)之前,讓我們嘗試使用GAN的一些獨特方法。

你現(xiàn)在的位置:紅色的X

CGAN:Conditional Generative Adversarial Network

原始GAN根據(jù)隨機噪聲生成數(shù)據(jù)。這意味著你可以在此基礎(chǔ)上訓(xùn)練它,比如狗的圖像,它會產(chǎn)生更多的狗的圖像。

您也可以在貓的圖像上訓(xùn)練它,在這種情況下,它會生成貓的圖像。

您也可以在尼古拉斯·凱奇(Nicholas Cage)圖像上訓(xùn)練它,在這種情況下,它會生成尼古拉斯·凱奇(Nicholas Cage)圖像。

你也可以在其他圖像上訓(xùn)練它,以此類推。

但是,如果你試圖同時訓(xùn)練狗和貓的圖像,它會產(chǎn)生模糊的半品種。

CGAN旨在通過只告訴生成器生成一個特定物種的圖像來解決這個問題,比如一只貓,一只狗或一個尼古拉斯·凱奇。

具體地來說,CGAN將單編碼向量yy連接到隨機噪聲向量zz,產(chǎn)生如下所示的體系結(jié)構(gòu):

現(xiàn)在,我們可以用同一個GAN同時生成貓和狗。

CycleGAN

GANs并不僅僅用于生成圖像。他們還可以創(chuàng)建“馬+斑馬”這樣的新生物,如上圖所示。

為了創(chuàng)建這些圖像,CycleGAN旨在解決“圖像到圖像”轉(zhuǎn)換的問題。

CycleGAN并不是一個推動藝術(shù)圖像合成的新GAN架構(gòu),相反,它是使用了GAN的智能方式。因此,您可以自由地將此技術(shù)應(yīng)用于您喜歡的任何架構(gòu)。

此時,我會建議你閱讀一篇論文(https://arxiv.org/abs/1703.10593v6)。寫得非常好,即使是初學(xué)者也很容易理解。

CycleGAN的任務(wù)是訓(xùn)練一個網(wǎng)絡(luò)G(X)G(X),該網(wǎng)絡(luò)會將圖像從源域XX映射到目標域YY。

但是,你可能會問:“這與常規(guī)的深度學(xué)習(xí)或樣式遷移有什么不同?!?/p>

嗯,下面的圖片很好地總結(jié)了這個問題。CycleGAN將不成對的圖像進行圖像平移。這意味著我們正在訓(xùn)練的圖像不必代表相同的東西。

如果我們有大量的圖像對:(圖像,達芬奇的繪畫圖像)(圖像,達芬奇繪畫圖像),那么訓(xùn)練達芬奇的繪畫圖像就會(相對)容易一些。

不幸的是,這個家伙并沒有太多的畫作。

然而,CycleGAN可以在未配對的數(shù)據(jù)上進行訓(xùn)練,所以我們不需要兩個相同的圖像。

另一方面,我們可以使用樣式遷移。但這只會提取一個特定圖像的風(fēng)格并將其轉(zhuǎn)移到另一個圖像,這意味著我們無法轉(zhuǎn)化一些假設(shè)性事物,如將馬轉(zhuǎn)化為斑馬。

然而,CycleGAN會學(xué)習(xí)從一個圖像域到另一個域的映射。所以我們就說一下所有的莫奈畫作訓(xùn)練。

他們使用的方法非常優(yōu)雅。CycleGAN由兩個生成器GG和FF,以及兩個判別器DXDX和DYDY組成。

GG從XX獲取圖像并嘗試將其映射到Y(jié)Y中的某個圖像。判別器 DYDY預(yù)測圖像是由GG生成還是實際在YY中生成。

類似地,F(xiàn)F從YY接收圖像并嘗試將其映射到XX中的某個圖像,而判別器DXDX 預(yù)測圖像是由FF生成還是實際上是在XX中。

所有的這四個神經(jīng)網(wǎng)絡(luò)都是以通常的GAN方式進行訓(xùn)練,直到我們留下了強大的生成器GG和FF,它們可以很好地執(zhí)行圖像到圖像的轉(zhuǎn)換任務(wù),乃至愚弄了DYDY 和DXDX。

這種類型的對抗性損失聽起來是個好主意,但這還不夠。為了進一步提高性能,CycleGAN使用另一個度量標準,循環(huán)一致性損失。

一般來說,優(yōu)秀的轉(zhuǎn)換應(yīng)該具備以下屬性,當(dāng)你來回轉(zhuǎn)換時,你應(yīng)該再次得到同樣的東西。

CycleGAN用巧妙的方式實現(xiàn)了這個想法,它迫使神經(jīng)網(wǎng)絡(luò)遵守這些約束:

F(G(x))≈x,x∈XF(G(x))≈x,x∈X G(F(y))≈y,y∈YG(F(y))≈y,y∈Y

在視覺上看,循環(huán)一致性如下所示:

總損失函數(shù)是以懲罰網(wǎng)絡(luò)不符合上述特性的方式構(gòu)造的。我不打算在這里寫出這個損失函數(shù),因為這會破壞它在文章中匯總的方式。

好的,七龍珠還沒有召喚完,讓我們回到我們找尋更好的GAN架構(gòu)的主要任務(wù)。

CoGAN:Coupled Generative Adversarial Networks

你知道比一個GAN更好的網(wǎng)絡(luò)是什么嗎?兩個GAN!

CoGAN(即“Coupled Generative Adversarial Networks”,不要與CGAN混淆,后者代表的是條件生成對抗網(wǎng)絡(luò))就是這樣做的。它會訓(xùn)練兩個GAN而不是一個單一的GAN。

當(dāng)然,GAN研究人員不停止地將此與那些警察和偽造者的博弈理論進行類比。所以這就是CoGAN背后的想法,用作者自己的話說就是:

在游戲中,有兩個團隊,每個團隊有兩個成員。生成模型組成一個團隊,在兩個不同的域中合作共同合成一對圖像,用以混淆判別模型。判別模型試圖將從各個域中的訓(xùn)練數(shù)據(jù)分布中繪制的圖像與從各個生成模型中繪制的圖像區(qū)分開。同一團隊中,參與者之間的協(xié)作是根據(jù)權(quán)重分配約束建立的。

這樣就有了一個GAN的多人局域網(wǎng)競賽,聽起來不錯,但你怎么能讓它真正起作用呢?

事實證明這并不復(fù)雜,只需使網(wǎng)絡(luò)對某些層使用完全相同的權(quán)重。

在我認為(可能不太謙虛),關(guān)于CoGAN最酷的事情不是提高圖像生成質(zhì)量,也不是你可以在多個圖像域中進行訓(xùn)練的事實。

而是,事實上,你獲得兩張圖片的價格僅是之前的四分之三。

由于我們共享一些權(quán)重,因此CoGAN將比兩個單獨的GAN具有更少的參數(shù)(因此將節(jié)省更多的內(nèi)存,計算和存儲)。

這是一種微妙技術(shù),但是有點過時,所以我們今天看到的一些新GAN并不會使用這種技術(shù)。

不過,我認為這一想法會在未來再次得到重視。

ProGAN:Progressive growing of Generative Adversarial Networks

訓(xùn)練集GAN存在許多問題,其中最重要的是其不穩(wěn)定性。

有時,GAN的損失會發(fā)生振蕩,因為生成器和判別器會消除對方的學(xué)習(xí)。也有時,錯誤會在網(wǎng)絡(luò)收斂后立即發(fā)生,這時圖像就會看起來很糟糕。

ProGAN是一種通過逐步提高生成圖像的分辨率來使其訓(xùn)練集穩(wěn)定的技術(shù)。

常識認為,生成4x4的圖像比生成1024x1024圖像更容易。此外,將16x16的圖像映射到32x32的圖像比將2x2圖像映射到32x32圖像更容易。

因此,ProGAN首先訓(xùn)練4x4生成器和4x4判別器,并在訓(xùn)練過程的后期添加相對應(yīng)的更高分辨率的層。我們用一個動畫來總結(jié)一下:

WGAN:Wasserstein Generative Adversarial Networks

這篇文獻可能是此列表中最具理論性和數(shù)學(xué)性的論文。作者在文中用了一卡車的證據(jù)、推論以及另一種數(shù)學(xué)術(shù)語。因此,如果積分概率計量和Lipschitz連續(xù)與你無關(guān),我們也不會在這個上花太多時間。

簡而言之,WGAN('W'代表Wasserstein)提出了一個新的成本函數(shù),這些函數(shù)在純數(shù)學(xué)家和統(tǒng)計學(xué)家中風(fēng)靡一時。

這是GAN minimax函數(shù)的舊版本:

這是WGAN使用的新版本:

在大多數(shù)情況下,你需要知道WGAN函數(shù)是清除了舊的成本函數(shù),該函數(shù)近似于稱為Jensen-Shannon散度的統(tǒng)計量,并在新的成本函數(shù)中滑動,使其近似于稱為1-Wasserstein距離的統(tǒng)計量。

看了下圖您就知道為什么要這么做。

當(dāng)然,如果您感興趣的話,接下來的是對數(shù)學(xué)細節(jié)的快速回顧,這也是WGAN論文備受好評的原因。

最初的GAN論文里認為,當(dāng)判別器是最優(yōu)的時,生成器以最小化Jensen-Shannon散度的方式更新。

如果你不太明白的話,Jensen-Shannon散度是一種衡量不同兩種概率分布的方法。JSD越大,兩個分布越“不同”,反之亦然。計算公式如下:

然而,把JSD最小化是最好的選擇嗎?

WGAN論文的作者認為可能不是。出于特殊原因,當(dāng)兩個發(fā)行版完全不重疊時,可以顯示JSD的值保持為2log22log?2的常量值。

具有常量值的函數(shù)有一個梯度等于零,而零梯度是不好的,因為這意味著生成器完全沒有學(xué)習(xí)。

WGAN作者提出的備用距離度量是1-Wasserstein距離,也稱為搬土距離(EMD距離)。

“搬土距離”來源于類比,想象一下,兩個分布中的一個是一堆土,另一個是一個坑。

假設(shè)盡可能有效地運輸淤泥,沙子,松土等物品,搬土距離測量將土堆運輸?shù)娇又械某杀?。這里,“成本”被認為是點之間的距離×土堆移動的距離×移動的土堆量。

也就是說(沒有雙關(guān)語),兩個分布之間的EMD距離可以寫成:

當(dāng)inf是最小值時,xx和yy是兩個分布上的點,γγ是最佳運輸計劃。

可是,計算這個是很難的。于是,我們計算完全不同的另一個值:

這兩個方程式之間的聯(lián)系一開始似乎并不明顯,但通過一些稱為Kantorovich-Rubenstein二重性的復(fù)雜數(shù)學(xué)(試著快讀三次),可以證明這些Wasserstein / Earth mover距離的公式在試計算同樣的東西。

如果你跟不上我提供的鏈接中的的論文和博客文章中的一些重要的數(shù)學(xué)概念,也不要過于擔(dān)心。關(guān)于WGAN的大部分工作都是為一個簡單的想法提供一個復(fù)雜的理由。

SAGAN:Self-Attention Generative Adversarial Networks

由于GAN使用轉(zhuǎn)置卷積來“掃描”特征映射,因此它們只能訪問附近的信息。

單獨使用轉(zhuǎn)置卷積就像繪制圖片,只在畫筆的小半徑范圍內(nèi)查看畫布區(qū)域。

即使是能完善最獨特和復(fù)雜細節(jié)的最偉大的藝術(shù)家,在創(chuàng)作過程中也需要退后一步,看看大局。

SAGAN(全稱為“自我關(guān)注生成對抗網(wǎng)絡(luò)”)使用自我關(guān)注機制,由于遷移模型架構(gòu),近年來這種方式已經(jīng)變得十分流行。

自我關(guān)注讓生成器退后一步,查看“大局”。

BigGAN:Big Generative Adversarial Networks

經(jīng)過四年漫長的歲月,DeepMind前所未有地決定與GAN合作,他們使用了一種深度學(xué)習(xí)的神秘技術(shù),這種技術(shù)非常強大,是最先進的技術(shù),超越了先進技術(shù)排行榜上所有其他的技術(shù)。

接下來展示BigGAN,GAN絕對沒有做什么(但是運行了一堆TPU集群,卻不知何故應(yīng)該在這個列表中)。

開個玩笑!DeepMind團隊確實在BigGAN上取得了很多成就。除了用逼真的圖像吸睛之外,BigGAN還向我們展示了一些非常詳細的訓(xùn)練GAN的大規(guī)模結(jié)果。

BigGAN背后的團隊引入了各種技術(shù)來對抗在許多機器上大批量培訓(xùn)GAN的不穩(wěn)定性。

首先,DeepMind使用SAGAN作為基線,并添加了一個稱為譜歸一化的功能。

接下來,他們將圖片批量大小縮放50%,寬度(通道數(shù))縮放20%。最初,增加層數(shù)似乎并沒有幫助。

在進行了一些其他單位數(shù)百分比改進之后,作者使用“截斷技巧”來提高采樣圖像的質(zhì)量。

BigGAN在訓(xùn)練期間從z N(0,I)提取其潛在向量,如果潛在向量在生成圖像時落在給定范圍之外,則重新采樣。

范圍是超參數(shù),由ψψ表示。較小的ψψ會縮小范圍,從而以多樣化為代價提高樣本保真度。

那么所有這些錯綜復(fù)雜的調(diào)整工作會有什么后顧呢?好吧,有人稱之為狗球。

BigGAN技術(shù)還發(fā)現(xiàn)更大規(guī)模的GAN訓(xùn)練可能會有一系列問題。

值得注意的是,訓(xùn)練集似乎可以通過增加批量大小和寬度等參數(shù)來很好地擴展,但不知什么原因,最終總會崩潰。

如果你對通過分析奇異值來理解這種不穩(wěn)定性感興趣的話,請查看論文,因為你會在那里找到很多東西。

最后,作者還在一個名為JFT-300的新數(shù)據(jù)集上訓(xùn)練BigGAN,這是一個類似ImageNet的數(shù)據(jù)集,它有3億個圖像。他們表明BigGAN在這個數(shù)據(jù)集上的表現(xiàn)更好,這表明更大規(guī)模的數(shù)據(jù)集可能是GAN的發(fā)展方向。

在論文的第一版發(fā)布后,作者在幾個月后重新訪問了BigGAN。還記得我怎么說增加層數(shù)不起作用?事實證明,這是由于糟糕的訓(xùn)練集選擇導(dǎo)致的。

該團隊不再只是在模型上填充更多層,還進行了實驗,發(fā)現(xiàn)使用ResNet突破瓶頸是可行的。

通過以上不斷地調(diào)整、縮放和仔細實驗,BigGAN的頂級線條完全抹殺了先前的最新狀態(tài),得分高達52.52分,總分是152.8。

如果這不是正確步驟的話,那我不知道哪個是正確的。

StyleGAN:Style-based Generative Adversarial Networks

StyleGAN是Nvidia的一個延伸研究,它主要與傳統(tǒng)的GAN研究關(guān)系不大,傳統(tǒng)GAN主要關(guān)注損失函數(shù),穩(wěn)定性,體系結(jié)構(gòu)等。

如果你想生成汽車的圖像的話,僅僅擁有一個可以欺騙地球上大多數(shù)人的世界級人臉生成器是沒有用的。

因此,StyleGAN不是專注于創(chuàng)建更逼真的圖像,而通過提高GAN的能力,可以對生成的圖像進行精細控制。

正如我所提到的那樣,StyleGAN沒有開發(fā)架構(gòu)和計算損失函數(shù)功能。相反,它是一套可以與任何GAN聯(lián)用的技術(shù),允許您執(zhí)行各種很酷的操作,例如混合圖像,在多個級別上改變細節(jié),以及執(zhí)行更高級的樣式傳輸。

換句話說,StyleGAN就像一個photoshop插件,只是大多數(shù)GAN開發(fā)都是photoshop的新版本。

為了實現(xiàn)這種級別的圖像風(fēng)格控制,StyleGAN采用了現(xiàn)有的一些技術(shù),如自適應(yīng)實例規(guī)范化,潛在矢量映射網(wǎng)絡(luò)和常量學(xué)習(xí)輸入。

如果沒有深入細節(jié),是很難再描述StyleGAN的,所以如果你有興趣的話,請查看我的文章,其中展示了如何使用StyleGAN生成權(quán)力游戲角色。我對所有技術(shù)都有詳細的解釋,一路上有很多很酷的結(jié)果等你哦。

結(jié)論

恭喜你,堅持看到了最后!你們都跟上了創(chuàng)造虛假個人照片的高度學(xué)術(shù)領(lǐng)域的最新進展。

但是在你癱在沙發(fā)上并開始無休止地刷微博票圈之前,請稍微停一下看看你到底還有多少路要走:

接下來是什么?!未被開發(fā)的區(qū)域!

在掌握了ProGAN和StyleGAN,且規(guī)模到達BigGAN之后,你很容易迷失在這里邊。

但請放大地圖仔細觀察,看到那個綠色土地了嗎?看到北方的紅三角了嗎?

這些都是等待被突破的未知開發(fā)區(qū)域,如果你放膽一試,他們都可以成為你的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2186

    瀏覽量

    76332
  • DeepFake
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    6847

原文標題:能生成Deepfake也能診斷癌癥,GAN與惡的距離

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    微風(fēng)發(fā)電?新型儲路燈讓 “輕風(fēng)” 變 “能源”

    當(dāng)人們印象中的風(fēng)力發(fā)電還停留在廣袤草原上巨大的風(fēng)車葉片時,一項顛覆性的技術(shù)正在城市街頭悄然興起 —— 微風(fēng)發(fā)電儲路燈。這種看似普通的路燈,卻能在僅有 2 米 / 秒的微風(fēng)中實現(xiàn)持續(xù)發(fā)電,將自然界中
    的頭像 發(fā)表于 06-11 09:10 ?330次閱讀

    用touchgfx生成了代碼,編譯成功,但下載之后無法顯示圖像,可能是什么原因?

    我用touchgfx生成了代碼,編譯成功,但下載之后無法顯示圖像,可能是什么原因?
    發(fā)表于 03-07 06:39

    能量管理系統(tǒng)在儲柜、儲集裝箱、儲預(yù)制艙中的應(yīng)用

    安科瑞徐赟杰18706165067 什么是儲柜、儲集裝箱、儲預(yù)制艙 1 儲柜 儲柜通常指風(fēng)冷或液冷的儲
    的頭像 發(fā)表于 03-06 10:00 ?476次閱讀
    儲<b class='flag-5'>能</b>能量管理系統(tǒng)在儲<b class='flag-5'>能</b>柜、儲<b class='flag-5'>能</b>集裝箱、儲<b class='flag-5'>能</b>預(yù)制艙中的應(yīng)用

    TIDA-010933 基于GaN的 1.6kW 雙向微型逆變器參考設(shè)計

    此參考設(shè)計展示了一款具有儲功能的基于 GaN 的四輸入雙向 1.6kW 微型逆變器。
    的頭像 發(fā)表于 02-21 10:11 ?648次閱讀
    TIDA-010933 基于<b class='flag-5'>GaN</b>的 1.6kW 雙向微型逆變器參考設(shè)計

    效率大升!AI賦鴻蒙萬卡片開發(fā)

    效率。 近期,華為重磅推出首款開發(fā)鴻蒙原生應(yīng)用的AI輔助編程工具——DevEco CodeGenie,該工具支持萬卡片生成功能,借助AI大模型理解開發(fā)者的卡片需求,通過對話式交互,智能生成鴻蒙萬
    的頭像 發(fā)表于 01-13 13:44 ?639次閱讀
    效率大升!AI賦<b class='flag-5'>能</b>鴻蒙萬<b class='flag-5'>能</b>卡片開發(fā)

    LG AI Research使用亞馬遜云科技開發(fā)AI模型 加快癌癥診斷速度

    LG集團旗下AI智庫利用亞馬遜云科技進行癌癥早期風(fēng)險識別 Amazon SageMaker助力LG AI Research將基因測試時間從兩周縮短至不到一分鐘,加快患者診斷速度 北京2024年12月
    的頭像 發(fā)表于 12-16 15:13 ?340次閱讀
    LG AI Research使用亞馬遜云科技開發(fā)AI模型 加快<b class='flag-5'>癌癥</b><b class='flag-5'>診斷</b>速度

    PCS與電池儲的結(jié)合

    隨著可再生能源的快速發(fā)展,電力系統(tǒng)面臨著前所未有的挑戰(zhàn)。風(fēng)能和太陽等可再生能源的間歇性和不穩(wěn)定性要求電力系統(tǒng)具備更高的靈活性和調(diào)節(jié)能力。儲技術(shù),尤其是電池儲系統(tǒng)(BESS,Battery
    的頭像 發(fā)表于 10-30 11:03 ?1637次閱讀

    CC8530+CC2591無線音頻方案的,傳輸距離達多少米?

    有沒有大神做過CC8530+CC2591無線音頻方案的,傳輸距離達多少米????
    發(fā)表于 10-29 08:27

    Deepfake,為什么百禁不絕?

    AI換臉的危害,不在于其高深,而在于低成本
    的頭像 發(fā)表于 10-09 09:18 ?2675次閱讀
    萬<b class='flag-5'>惡</b>的<b class='flag-5'>Deepfake</b>,為什么百禁不絕?

    飛輪儲 vs. 電池 UPS

    深圳崧皓電子
    發(fā)布于 :2024年09月26日 07:40:29

    飛輪儲龍頭公司

    深圳崧皓電子
    發(fā)布于 :2024年09月25日 07:44:14

    飛輪儲是一種很有前途的儲技術(shù),與其他儲技術(shù)相比具有多項優(yōu)勢

    技術(shù)
    深圳崧皓電子
    發(fā)布于 :2024年09月24日 07:32:12

    什么是飛輪儲 – 它是如何工作的?

    元器件
    深圳崧皓電子
    發(fā)布于 :2024年09月11日 07:35:30

    請問LM311準確的交截生成對應(yīng)的PWM波形嗎?

    UC3825, TLV3501輸入正是100k的正弦波 輸入負是100kHz的鋸齒波 二者交截生成PWM波形 請問LM311準確的交截生成對應(yīng)的PWM波形嗎 之前使用UC3525里面自帶的比較器做的,LM311
    發(fā)表于 08-06 07:46

    用touchgfx生成了代碼,編譯成功,但下載之后無法顯示圖像是什么原因?

    我用touchgfx生成了代碼,編譯成功,但下載之后無法顯示圖像,可能是什么原因?
    發(fā)表于 07-03 08:19
    主站蜘蛛池模板: 伦理片日本韩国电影三级在线观看 | 亚洲一卡2卡4卡5卡6卡在线99 | 亚洲欧美在线精品一区二区 | 日本高清免费一本视频在线观看 | 欧美中出在线 | 激情www| 婷婷色人阁 | 成人xxxxx | 日本一道dvd在线中文字幕 | 天天射天天摸 | 四虎网址在线观看 | 天堂va欧美ⅴa亚洲va一国产 | 色视频在线 | 精品三级三级三级三级三级 | 色综合天天色综合 | 伊人久色 | 2019天天干 | 国产chinesetube | 狠狠躁夜夜躁人人爽天天3 狠狠躁夜夜躁人人爽天天段 | 天天影视网天天影网 | 精品色综合 | 亚洲一区二区三区中文字幕 | 激情综合在线观看 | 韩国最新三级网站在线播放 | 四虎影院.com | 欧美三级图片 | 亚洲一区在线观看视频 | 国产综合第一页在线视频 | 可以免费观看的一级毛片 | 美女被猛男躁免费视频网站 | 男人的视频网站 | 国产午夜在线视频 | 一区二区三区福利 | 视色4se成人午夜精品 | 色www 永久免费网站 | 在线观看a网站 | 色播五月婷婷 | 中国同志chinese小彬tv | 狠狠干2021 | 六月天色婷婷 | 欧美亚洲韩国国产综合五月天 |