在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

超參數(shù)優(yōu)化方法PBT的原理和功效解讀

zhKF_jqr_AI ? 2017-11-29 08:59 ? 次閱讀

近日,DeepMind在論文Population Based Training of Neural Networks中提出了一種超參數(shù)優(yōu)化方法,在沿用傳統(tǒng)隨機(jī)搜索的并行訓(xùn)練的同時,從GA算法中獲得靈感引入了從其他個體復(fù)制參數(shù)更新迭代的做法,效果顯著。據(jù)官方稱,使用這種名為PBT的方法可大幅提高計算機(jī)資源利用效率,訓(xùn)練更穩(wěn)定,模型性能也更好。

從圍棋到雅達(dá)利游戲到圖像識別和語言翻譯,神經(jīng)網(wǎng)絡(luò)在各領(lǐng)域都取得了極大的成功。但經(jīng)常被忽視的一點是,神經(jīng)網(wǎng)絡(luò)在特定應(yīng)用中的成功往往取決于研究開始時做出的一系列選擇,包括使用何種類型的網(wǎng)絡(luò)、訓(xùn)練數(shù)據(jù)和訓(xùn)練方法。目前,這些選擇(超參數(shù))的選取主要基于經(jīng)驗、隨機(jī)搜索和計算機(jī)密集搜索。

在DeepMind新近發(fā)表的一篇論文中,團(tuán)隊提出了一種訓(xùn)練神經(jīng)網(wǎng)絡(luò)的新方法——Population Based Training (PBT,暫譯為基于群體的訓(xùn)練),通過同時訓(xùn)練和優(yōu)化一系列網(wǎng)絡(luò),它能幫開發(fā)者迅速選擇最佳超參數(shù)和模型。

該方法其實是兩種最常用的超參數(shù)優(yōu)化方法的整合:隨機(jī)搜索(random search)和手動調(diào)試(hand-tuning)。如果單純使用隨機(jī)搜索,神經(jīng)網(wǎng)絡(luò)群體并行訓(xùn)練,并在訓(xùn)練結(jié)束時選擇性能最好的模型。一般來說,這意味著只有一小部分群體能接受良好的超參數(shù)訓(xùn)練,而剩下的大部分訓(xùn)練質(zhì)量不佳,基本上只是在浪費計算機(jī)資源。

隨機(jī)搜索選取超參數(shù),超參數(shù)并行訓(xùn)練而又各自獨立。一些超參數(shù)可能有助于建立更好的模型,但其他的不會

而如果使用的是手動調(diào)試,研究人員必須首先推測哪種超參數(shù)最合適,然后把它應(yīng)用到模型中,再評估性能,如此循環(huán)往復(fù),直到他對模型的性能感到滿意為止。雖然這樣做可以實現(xiàn)更好的模型性能,但缺點同樣很突出,就是耗時太久,有時需要數(shù)周甚至數(shù)月才能完成優(yōu)化。

如果使用手動調(diào)試或貝葉斯優(yōu)化等方法通過依次觀察訓(xùn)練效果選取超參數(shù),整體進(jìn)度會異常緩慢

PBT結(jié)合兩種方法的優(yōu)勢。和隨機(jī)搜索一樣,它首先會訓(xùn)練大量神經(jīng)網(wǎng)絡(luò)供隨機(jī)超參數(shù)實驗,但不同的是,這些網(wǎng)絡(luò)不是獨立訓(xùn)練的,它們會不斷整合其他超參數(shù)群體的信息來進(jìn)行自我完善,同時將計算資源集中給最有潛力的模型。這個靈感來自遺傳算法(GA),在GA中,每個個體(候選解)能通過利用其他個體的參數(shù)信息進(jìn)行迭代,如,一個個體能從另一個性能較優(yōu)的個體中復(fù)制參數(shù)模型。同理,PBT鼓勵每個超參數(shù)通過隨機(jī)更改當(dāng)前值來探索形成新的超參數(shù)。

隨著對神經(jīng)網(wǎng)絡(luò)訓(xùn)練的不斷深入,這個開發(fā)和探索的過程是定期進(jìn)行的,以確保所有超參數(shù)都有一個良好的基礎(chǔ)性能,同時,新超參數(shù)也在不斷形成。這意味著PBT可以迅速選取優(yōu)質(zhì)超參數(shù),并把更多的訓(xùn)練時間投入到最有潛力的模型中,最關(guān)鍵的是,它還允許在訓(xùn)練過程中調(diào)整超參數(shù)值,從而自動學(xué)習(xí)最佳配置。

PBT的神經(jīng)網(wǎng)絡(luò)訓(xùn)練從隨機(jī)搜索開始,但允許個體利用其他個體的部分結(jié)果,并隨著訓(xùn)練的進(jìn)行探索形成新超參數(shù)

為了測試PBT的效果,DeepMind做了一些實驗。如研究人員在DeepMind Lab、雅達(dá)利和星際2三個游戲平臺上用最先進(jìn)的方法測試了一套具有相當(dāng)挑戰(zhàn)性的強(qiáng)化學(xué)習(xí)問題。實驗證明,在所有情況下,PBT都訓(xùn)練穩(wěn)定,并且迅速找到了最佳超參數(shù),提供了超出最新基線的結(jié)果。

他們還發(fā)現(xiàn)PBT同樣適用于生成對抗網(wǎng)絡(luò)(GAN)。一般來說,GAN的超參數(shù)很難調(diào)試,但在一次實驗中,DeepMind的PBT框架使模型的Inception Score(圖像保真度分?jǐn)?shù))達(dá)到了新高,從6.45躍升至6.89(如上圖最后一幅圖所示)。

PBT也在Google的機(jī)器翻譯神經(jīng)網(wǎng)絡(luò)上進(jìn)行了實驗。作為谷歌最先進(jìn)的機(jī)翻工具,這些神經(jīng)網(wǎng)絡(luò)使用的超參數(shù)優(yōu)化方法是手動調(diào)試,這意味著在投入使用前,它們需要按照研究人員精心設(shè)計的超參數(shù)時間表進(jìn)行長達(dá)數(shù)月的訓(xùn)練。使用PBT,計算機(jī)自動建立了時間表,該訓(xùn)練計劃所獲得的模型性能和現(xiàn)用方法差不多,甚至更好,而且只需進(jìn)行一次訓(xùn)練就可以獲得滿意的模型。

PBT在GAN和雅達(dá)利游戲“吃豆子女士”上的表現(xiàn):粉色點為初代,藍(lán)色點為末代,分支代表操作已執(zhí)行(參數(shù)已復(fù)制),路徑表示步驟的連續(xù)更新

DeepMind相信,這只是超參數(shù)優(yōu)化方法創(chuàng)新的一個開始。綜合論文可知,PBT對于訓(xùn)練引入新超參數(shù)的算法和神經(jīng)網(wǎng)絡(luò)結(jié)果特別有用,它為尋找和開發(fā)更復(fù)雜、更強(qiáng)大的神經(jīng)網(wǎng)絡(luò)模型提供了可能性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:DeepMind最新研究:基于群體的神經(jīng)網(wǎng)絡(luò)訓(xùn)練

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    2006 年微控制器五大趨勢-外圍篇(微控制器基本功效解讀)

    2006 年微控制器五大趨勢-外圍篇(微控制器基本功效解讀)雖然在許多層面上MCU 與MPU 難有明確分際,但若反過來問:MCU 與MPU 的明顯分際為何?對此這樣的問題,答案可能會在整合
    發(fā)表于 09-24 09:36

    【免費直播】李增和大家一起學(xué)習(xí)S參數(shù)的相關(guān)知識及提取解讀分析優(yōu)化S參數(shù)方法

    的直播內(nèi)容以S參數(shù)的相關(guān)知識點為切入口,詳細(xì)講解S參數(shù)含義和S參數(shù)關(guān)鍵指標(biāo),以及提取S參數(shù)提取優(yōu)化的相關(guān)
    發(fā)表于 11-28 16:33

    【免費直播】李增和大家一起學(xué)習(xí)S參數(shù)的相關(guān)知識及提取解讀分析優(yōu)化S參數(shù)方法

    的直播內(nèi)容以S參數(shù)的相關(guān)知識點為切入口,詳細(xì)講解S參數(shù)含義和S參數(shù)關(guān)鍵指標(biāo),以及提取S參數(shù)提取優(yōu)化的相關(guān)
    發(fā)表于 11-28 16:37

    【免費直播】李增和大家一起學(xué)習(xí)S參數(shù)的相關(guān)知識及提取解讀分析優(yōu)化S參數(shù)方法

    的直播內(nèi)容以S參數(shù)的相關(guān)知識點為切入口,詳細(xì)講解S參數(shù)含義和S參數(shù)關(guān)鍵指標(biāo),以及提取S參數(shù)提取優(yōu)化的相關(guān)
    發(fā)表于 11-29 11:31

    改善深層神經(jīng)網(wǎng)絡(luò)--參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)

    《深度學(xué)習(xí)工程師-吳恩達(dá)》02改善深層神經(jīng)網(wǎng)絡(luò)--參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)
    發(fā)表于 06-16 14:52

    優(yōu)化面向超低功耗設(shè)計的微控制器功效

    優(yōu)化面向超低功耗設(shè)計的微控制器功效 不論是消費、工業(yè)還是醫(yī)療應(yīng)用,功耗優(yōu)化一般都是通過縮短有效處理時間以及延長處理器睡眠模式時間來實現(xiàn)的。不過,隨著
    發(fā)表于 01-06 11:40 ?1069次閱讀

    PID調(diào)節(jié)器參數(shù)優(yōu)化設(shè)計的改進(jìn)方法

    本文較詳細(xì)地介紹了 PID調(diào)節(jié)器 參數(shù)優(yōu)化設(shè)計原理,提出了一種簡便實用的PID調(diào)節(jié)器優(yōu)化參數(shù)初始值選擇方法
    發(fā)表于 07-18 16:52 ?134次下載
    PID調(diào)節(jié)器<b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>設(shè)計的改進(jìn)<b class='flag-5'>方法</b>

    調(diào)參心得:如何優(yōu)化參數(shù)的,如何證實方法是有效的

    自動化參數(shù)優(yōu)化及其工具最主要的問題之一,是你常常偏離原本的工作方式。預(yù)測任務(wù)無關(guān)的參數(shù)優(yōu)化
    的頭像 發(fā)表于 08-31 09:53 ?2.1w次閱讀

    PerferredNetworks發(fā)布了其參數(shù)優(yōu)化框架的beta版本

    Optuna作為參數(shù)優(yōu)化框架可以和PFN自己的深度學(xué)習(xí)框架Chainer充分結(jié)合使用。只需要在Chainer中寫接受來自O(shè)ptuna的參數(shù)
    的頭像 發(fā)表于 12-14 09:47 ?3313次閱讀

    機(jī)器學(xué)習(xí)的參數(shù)調(diào)優(yōu)方法

    對于很多算法工程師來說,參數(shù)調(diào)優(yōu)是件非常頭疼的事,這項工作比較玄學(xué)。除了根據(jù)經(jīng)驗設(shè)定所謂的“合理值”之外,一般很難找到合理的方法去尋找參數(shù)
    的頭像 發(fā)表于 05-03 12:24 ?2917次閱讀

    機(jī)器學(xué)習(xí)的幾個參數(shù)調(diào)試方法

    作者:Sivasai,來源:AI公園導(dǎo)讀 ML工作流中最困難的部分之一是為模型找到最好的參數(shù)。ML模型的性能與參數(shù)直接相關(guān)。 介紹 維基百科上說,Hyperparameter
    的頭像 發(fā)表于 10-09 14:17 ?3153次閱讀

    基于樹狀結(jié)構(gòu)Parzen估計方法參數(shù)優(yōu)化方法

    億測序片段聚類提供了一種可擴(kuò)展的解決方案。但是, Sparc算法參數(shù)的設(shè)置是一項非常具有挑戰(zhàn)性的工作。 Sparc算法擁有許多對算法性能有著很大影響的參數(shù),選擇合適的
    發(fā)表于 04-13 14:42 ?23次下載
    基于樹狀結(jié)構(gòu)Parzen估計<b class='flag-5'>方法</b>的<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b><b class='flag-5'>方法</b>

    PyTorch教程19.1之什么是參數(shù)優(yōu)化

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程19.1之什么是參數(shù)優(yōu)化.pdf》資料免費下載
    發(fā)表于 06-05 10:25 ?0次下載
    PyTorch教程19.1之什么是<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>

    PyTorch教程19.2之參數(shù)優(yōu)化API

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程19.2之參數(shù)優(yōu)化API.pdf》資料免費下載
    發(fā)表于 06-05 10:27 ?0次下載
    PyTorch教程19.2之<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>API

    MOSFET參數(shù)解讀

    SGT-MOSFET各項參數(shù)解讀
    發(fā)表于 12-30 14:15 ?1次下載
    主站蜘蛛池模板: 福利午夜在线 | 日本特黄特色大片免费看 | 久久久久综合 | 又黑又长黑人欧美三级 | 色在线看 | 欧美八区 | 国产日韩精品欧美一区色 | 五月天婷婷在线免费观看 | 成年片免费网址网站 | 中文天堂在线最新2022更新 | 美女扒开尿口给男人桶视频免费 | 2017天天天天做夜夜夜做 | 久久精品视频9 | 99久久久精品免费观看国产 | 免费两性的视频网站 | 亚洲 图片 小说 欧美 另类 | 国内精品久久影视免费 | 国产精品久久久久久吹潮 | 日本高清中文字幕在线观穿线视频 | 久久新视频 | 欧美日韩一区二区三区视频在线观看 | 又粗又硬又猛又黄的免费视频黑人 | 在线免费看片a | 69日本xxxxxxxxx96| 色婷婷婷丁香亚洲综合不卡 | 久久99国产亚洲高清观看首页 | 91视频观看 | 色在线看| 1717国产精品久久 | 亚洲人成网站色7799在线观看 | 免费看欧美一级片 | 亚洲人成网站色7799在线观看 | 手机在线播放视频 | 欧美xxxx色视频在线观看免费 | 永久黄色免费网站 | 在线精品国产成人综合第一页 | 操的好爽视频 | 天天干夜夜想 | 99精品久久99久久久久久 | 色爱区综合五月激情 | 久久精品视频99精品视频150 |