91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用2.5GPU年的算力在7個(gè)數(shù)據(jù)集上訓(xùn)練了12000多個(gè)模型

nlfO_thejiangme ? 來(lái)源:lq ? 2019-04-30 09:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于無(wú)監(jiān)督的方式理解高維數(shù)據(jù)并將信息濃縮為有用的表示一直是深度學(xué)習(xí)領(lǐng)域研究的關(guān)鍵問(wèn)題。其中一種方法是利用非耦合表示(disentangled representations)模型來(lái)捕捉場(chǎng)景中獨(dú)立變化的特征。如果能夠?qū)崿F(xiàn)對(duì)于各種獨(dú)立特征的描述,機(jī)器學(xué)習(xí)系統(tǒng)就可以用于真實(shí)環(huán)境中的導(dǎo)航,機(jī)器人或無(wú)人車?yán)眠@種方法可以將環(huán)境解構(gòu)成一系列元素,并利用通用的知識(shí)去理解先前未見(jiàn)過(guò)的場(chǎng)景。



雖然非監(jiān)督解耦方法已被廣泛應(yīng)用于好奇驅(qū)動(dòng)的探索、抽象推理、視覺(jué)概念學(xué)習(xí)和域適應(yīng)的強(qiáng)化學(xué)習(xí)中,但最近進(jìn)展卻無(wú)法讓我們清晰了解不同方法的性能和方法的局限。為了深入探索這一問(wèn)題,谷歌的研究人員在ICML2019上發(fā)表了一篇大規(guī)模深入研究非監(jiān)督非耦合表示的論文”Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations”,對(duì)近年來(lái)絕大多數(shù)的非監(jiān)督解耦表示方法進(jìn)行探索、利用2.5GPU年的算力在7個(gè)數(shù)據(jù)集上訓(xùn)練了12000多個(gè)模型。基于大規(guī)模的實(shí)驗(yàn)結(jié)果,研究人員對(duì)這一領(lǐng)域的一些假設(shè)產(chǎn)生了質(zhì)疑,并為解耦學(xué)習(xí)的未來(lái)發(fā)展方向給出了建議。與此同時(shí),研究人員還同時(shí)發(fā)布了研究中所使用的代碼和上萬(wàn)個(gè)預(yù)訓(xùn)練模型,并封裝了disentanglement_lib供研究者進(jìn)行實(shí)驗(yàn)復(fù)現(xiàn)和更深入的探索。

理解非耦合表示

為了更好地理解非耦合表示的本質(zhì),讓我一起來(lái)看看下面動(dòng)圖中每個(gè)獨(dú)立變化的元素。下面的每一張圖代表了一個(gè)可以被編碼到矢量表示中的因子,它可以獨(dú)立控制圖像中每個(gè)語(yǔ)義元素的屬性。例如第一個(gè)可以控制地板的顏色,第二個(gè)則控制墻的顏色,最后一個(gè)則控制圖片的視角。

解耦表示的目標(biāo)在于建立起一個(gè)能夠獨(dú)立捕捉這些特征的模型,并將這些特征編碼到一個(gè)表示矢量中。下面的10個(gè)小圖展示了基于FactorVAE方法學(xué)習(xí)十維表示矢量的模型,圖中展示 了每一維對(duì)于圖像對(duì)應(yīng)信息的捕捉。從各個(gè)圖中可以看出模型成功地解耦了地板、墻面的顏色,但是左下角的兩個(gè)圖片可以看到物體的顏色和大小的表示卻依然相關(guān)沒(méi)有解耦。

大規(guī)模研究的發(fā)現(xiàn)

在直觀地理解了解耦表示之后,讓我們來(lái)看看科學(xué)家在研究中發(fā)現(xiàn)了什么。這一領(lǐng)域基于變分自編碼器提出了各種各樣的非監(jiān)督方法來(lái)學(xué)習(xí)非耦合表示,同時(shí)給出了許多不同的性能度量方法,但卻缺乏一個(gè)大規(guī)模的性能測(cè)評(píng)和對(duì)比研究。為此研究人員構(gòu)建了一個(gè)大規(guī)模、公平性、可復(fù)現(xiàn)的實(shí)驗(yàn)基準(zhǔn),并系統(tǒng)的測(cè)試了六種不同的模型(BetaVAE, AnnealedVAE, FactorVAE, DIP-VAE I/II and Beta-TCVAE)和解耦性能度量方法(BetaVAE score, FactorVAE score, MIG, SAP, Modularity and DCI Disentanglement),在7個(gè)數(shù)據(jù)集上進(jìn)行了12800個(gè)模型的訓(xùn)練后,研究人員們有了顛覆過(guò)去的發(fā)現(xiàn):首先,是非監(jiān)督學(xué)習(xí)的方式。研究人員在大量的實(shí)驗(yàn)后發(fā)現(xiàn)沒(méi)有可靠的證據(jù)表明模型可以通過(guò)無(wú)監(jiān)督的方式學(xué)習(xí)到有效的解耦表示,隨機(jī)種子和超參數(shù)對(duì)于結(jié)構(gòu)的影響甚至超過(guò)了模型的選擇。換句話說(shuō),即使你訓(xùn)練的大量模型中有部分是解耦的,但這些解耦表示在不基于基準(zhǔn)標(biāo)簽的情況下是無(wú)從確認(rèn)和識(shí)別的。此外好的超參數(shù)在不同的數(shù)據(jù)集上并不一致,這意味著沒(méi)有歸納偏置(inductive biases)是無(wú)法實(shí)現(xiàn)非監(jiān)督解耦學(xué)習(xí)的(需要把對(duì)數(shù)據(jù)集的假設(shè)考慮進(jìn)模型中)。對(duì)于實(shí)驗(yàn)中評(píng)測(cè)的模型和數(shù)據(jù)集,研究人員表示無(wú)法驗(yàn)證解耦對(duì)于downstream tasks任務(wù)有利的假設(shè)(這一假設(shè)認(rèn)為基于解耦表示可以利用更少的標(biāo)簽來(lái)進(jìn)行學(xué)習(xí))。下圖展示了研究中的一些發(fā)現(xiàn),可以看到隨機(jī)種子在運(yùn)行中的影響超過(guò)了模型的選擇(左)和正則化(右)的強(qiáng)度(更強(qiáng)的正則化并沒(méi)有帶來(lái)更多的解耦性能)。這意味著很差超參數(shù)作用下的好模型也許比很好超參數(shù)作用下的壞模型要好得多。

未來(lái)研究方向

基于這些全新的發(fā)現(xiàn)和研究結(jié)果,研究人員為解耦表示領(lǐng)域提出了四個(gè)可能的方向:1.在沒(méi)有歸納偏置的條件下給出非監(jiān)督解耦表示學(xué)習(xí)的理論結(jié)果是不可能的,未來(lái)的研究應(yīng)該更多地集中于歸納偏置的研究以及隱式和顯示監(jiān)督在學(xué)習(xí)中所扮演的角色;2.為橫跨多數(shù)據(jù)集的非監(jiān)督模型尋找一個(gè)有效的歸納偏置將會(huì)成為關(guān)鍵的開(kāi)放問(wèn)題;3.應(yīng)該強(qiáng)調(diào)解耦學(xué)習(xí)在各個(gè)特定領(lǐng)域所帶來(lái)的實(shí)際應(yīng)用價(jià)值,潛在的應(yīng)用方向包括機(jī)器人、抽象推理和公平性等;4.在各種多樣性數(shù)據(jù)集上的實(shí)驗(yàn)應(yīng)該保證可重復(fù)性。

代碼和工具包

為了讓其他研究人員更好的復(fù)現(xiàn)結(jié)構(gòu),論文同時(shí)還發(fā)布了 disentanglement_lib工具包,其中包含了實(shí)驗(yàn)所需的模型、度量、訓(xùn)練、預(yù)測(cè)以及可視化代碼工具。可以在命令行中用不到四行代碼就能復(fù)現(xiàn)是論文中所提到的模型,也可以方便地改造來(lái)驗(yàn)證新的假設(shè)。最后 disentanglement_lib庫(kù)易于拓展和集成,易于創(chuàng)建新的模型,并用公平的可復(fù)現(xiàn)的比較進(jìn)行檢驗(yàn)。由于復(fù)現(xiàn)所有的模型訓(xùn)練需要2.5GPU年的算力,所以研究人員同時(shí)開(kāi)放了論文中提到的一萬(wàn)多個(gè)預(yù)訓(xùn)練模型可以配合前述工具使用。如果想要使用這個(gè)工具可以在這里找到源碼:

https://github.com/google-research/disentanglement_lib

其中包含了以下內(nèi)容:模型:BetaVAE, FactorVAE, BetaTCVAE, DIP-VAE度量:BetaVAE score, FactorVAE score, Mutual Information Gap, SAP score, DCI, MCE數(shù)據(jù)集:dSprites, Color/Noisy/Scream-dSprites, SmallNORB, Cars3D, and Shapes3D預(yù)訓(xùn)練模型:10800 pretrained disentanglement models依賴包:TensorFlow, Scipy, Numpy, Scikit-Learn, TFHub and Gin

git clone https://github.com/google-research/disentanglement_lib.git #下載gitcd disentanglement_lib #轉(zhuǎn)到源碼目錄pip install .[tf_gpu] #安裝依賴文件dlib_tests #驗(yàn)證安裝

隨后下載對(duì)應(yīng)的數(shù)據(jù)文件:

dlib_download_data#在.bashrc寫(xiě)入路徑export DISENTANGLEMENT_LIB_DATA=

隨后就可以愉快地復(fù)現(xiàn)實(shí)驗(yàn)了,其中?是0-12599間的模型序號(hào):dlib_reproduce --model_num=進(jìn)行評(píng)測(cè):dlib_aggregate_results

相信這篇文章的研究結(jié)果和代碼工具將為接下來(lái)的研究提供更為明確的方向和便捷的途徑,促進(jìn)非耦合表示學(xué)習(xí)領(lǐng)域的發(fā)展。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108183
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4949

    瀏覽量

    131282
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25459

原文標(biāo)題:耗時(shí)2.5GPU年訓(xùn)練12800個(gè)模型,谷歌研究人員揭示非耦合表示的奧秘

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI訓(xùn)練,為什么需要GPU

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺(tái)的基石,甚至是決定性的底座。為什么
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    AI<b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    全球范圍內(nèi),對(duì)于推動(dòng)科技進(jìn)步、經(jīng)濟(jì)發(fā)展及社會(huì)整體的運(yùn)作具有至關(guān)重要的作用。隨著信息技術(shù)的高速發(fā)展,高性能計(jì)算(HPC)和人工智能(AI)等技術(shù)多個(gè)領(lǐng)域的應(yīng)用變得日益廣泛,芯片
    發(fā)表于 09-02 10:09

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書(shū)概覽

    GPU、NPU,給我們剖析了芯片的微架構(gòu)。書(shū)中有對(duì)芯片方案商處理器的講解,理論聯(lián)系實(shí)際,使讀者能更好理解芯片。 全書(shū)共11章,
    發(fā)表于 10-15 22:08

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--了解芯片GPU

    從而充分利用 GPU的強(qiáng)大計(jì)算能力。CUDA編程模型中,GPU的計(jì)算資源被組織為線期線程塊和線程網(wǎng)格3級(jí)。線程是基本的執(zhí)行單元,線程塊是包
    發(fā)表于 11-03 12:55

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)自定義數(shù)據(jù)的 YOLOv5 訓(xùn)練了
    發(fā)表于 03-25 07:23

    數(shù)據(jù)、算法和其實(shí)現(xiàn)載體是什么

    背景介紹數(shù)據(jù)、算法和是人工智能技術(shù)的三大要素。其中,體現(xiàn)著人工智能(AI)技術(shù)具體實(shí)現(xiàn)的能力,實(shí)現(xiàn)載體主要有CPU、
    發(fā)表于 07-26 06:47

    Ubuntu使用Nvidia GPU訓(xùn)練模型

    問(wèn)題最近在Ubuntu使用Nvidia GPU訓(xùn)練模型的時(shí)候,沒(méi)有問(wèn)題,過(guò)一會(huì)再訓(xùn)練出現(xiàn)非常卡頓,使用nvidia-smi查看發(fā)現(xiàn),顯示
    發(fā)表于 01-03 08:24

    索尼發(fā)布新的方法,ImageNet數(shù)據(jù)224秒內(nèi)成功訓(xùn)練了ResNet-50

    近年來(lái),許多研究人員提出了多種方案來(lái)解決這兩個(gè)問(wèn)題(見(jiàn)原文參考文獻(xiàn))。這些工作利用ImageNet/ResNet-50訓(xùn)練來(lái)衡量訓(xùn)練效果。ImageNet/ResNet-50分別是最流
    的頭像 發(fā)表于 11-16 10:01 ?1w次閱讀

    GPU如何訓(xùn)練大批量模型?方法在這里

    深度學(xué)習(xí)模型數(shù)據(jù)的規(guī)模增長(zhǎng)速度已經(jīng)讓 GPU 也開(kāi)始捉襟見(jiàn)肘,如果你的
    發(fā)表于 12-03 17:24 ?1007次閱讀

    ICML 2019最佳論文新鮮出爐!

    這是一篇大規(guī)模深入研究無(wú)監(jiān)督解耦表示(Disentangled Representation)的論文,對(duì)近年來(lái)絕大多數(shù)的非監(jiān)督解耦表示方法進(jìn)行了探索、利用 2.5GPU
    的頭像 發(fā)表于 06-15 10:02 ?5499次閱讀

    夯實(shí)基礎(chǔ) 賦能大模型創(chuàng)新發(fā)展

    《 國(guó)產(chǎn) GPU的大模型實(shí)踐 》 的主題演講 , 全面介紹了天數(shù)智芯 通用 GPU產(chǎn)品特色 以及 模型
    的頭像 發(fā)表于 07-17 22:25 ?856次閱讀
    夯實(shí)<b class='flag-5'>算</b><b class='flag-5'>力</b>基礎(chǔ)  賦能大<b class='flag-5'>模型</b>創(chuàng)新發(fā)展

    20個(gè)數(shù)據(jù)可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)嗎

    當(dāng)然可以,20個(gè)數(shù)據(jù)點(diǎn)對(duì)于訓(xùn)練個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)可能非常有限,但這并不意味著它們不能用于訓(xùn)練。實(shí)際,神經(jīng)網(wǎng)絡(luò)可以
    的頭像 發(fā)表于 07-11 10:29 ?1842次閱讀

    【一文看懂】大白話解釋“GPUGPU

    隨著大模型的興起,“GPU”這個(gè)詞正頻繁出現(xiàn)在人工智能、游戲、圖形設(shè)計(jì)等工作場(chǎng)景中,什么是GPU,它與CPU的區(qū)別是什么?以及到底什么是
    的頭像 發(fā)表于 10-29 08:05 ?2613次閱讀
    【一文看懂】大白話解釋“<b class='flag-5'>GPU</b>與<b class='flag-5'>GPU</b><b class='flag-5'>算</b><b class='flag-5'>力</b>”

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作
    的頭像 發(fā)表于 11-05 17:43 ?1415次閱讀

    搭建中心,從了解的GPU 特性開(kāi)始

    對(duì)的需求也不斷攀升。無(wú)論是企業(yè)進(jìn)行數(shù)據(jù)分析、模型訓(xùn)練,還是科研機(jī)構(gòu)開(kāi)展復(fù)雜的科學(xué)計(jì)算,都需
    的頭像 發(fā)表于 04-24 11:08 ?910次閱讀
    搭建<b class='flag-5'>算</b><b class='flag-5'>力</b>中心,從了解的<b class='flag-5'>GPU</b> 特性開(kāi)始
    主站蜘蛛池模板: 久久精品国产精品亚洲毛片 | 在线观看视频免费入口 | 欧美三级免费看 | 手机看片国产免费 | 毛片基地在线 | 久久亚洲国产成人精品性色 | 婷婷丁香激情 | 欧美色图久久 | 色第一页 | 欧美福利在线播放 | 伊人网综合在线 | 久久免费看视频 | 国产一区二区三区四卡 | 国产一级淫| 欧美激情综合色综合啪啪五月 | 欧美aaaaa性bbbbb小妇 | 日韩免费高清一级毛片在线 | 久久久午夜毛片免费 | 欧美性淫爽www视频播放 | 97人人干 | 一级毛片在线 | 精品一区二区影院在线 | 香淫| 五月天婷婷网亚洲综合在线 | 在线观看免费黄视频 | 狠狠色 综合色区 | 亚洲人成人77777网站 | 黄www色| japan日韩xxxx69hd| 美女被啪到哭网站在线观看 | 手机看片福利久久 | 天天干天天操天天爽 | 日韩免费高清一级毛片 | 西西人体44renti大胆亚洲 | 午夜快播 | 性欧美高清 | 一级毛片免费在线观看网站 | 日本加勒比在线精品视频 | 免费观看影院 | xxx性xxx乱| 丁香花在线视频 |