在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

帶Dropout的訓(xùn)練過(guò)程

Dbwd_Imgtec ? 來(lái)源:YXQ ? 2019-08-08 10:35 ? 次閱讀

dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),對(duì)于隨機(jī)梯度下降來(lái)說(shuō),由于是隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。

過(guò)擬合是深度神經(jīng)網(wǎng)(DNN)中的一個(gè)常見(jiàn)問(wèn)題:模型只學(xué)會(huì)在訓(xùn)練集上分類(lèi),這些年提出的許多過(guò)擬合問(wèn)題的解決方案,其中dropout具有簡(jiǎn)單性而且效果也非常良好。

算法概述

我們知道如果要訓(xùn)練一個(gè)大型的網(wǎng)絡(luò),而訓(xùn)練數(shù)據(jù)很少的話(huà),那么很容易引起過(guò)擬合,一般情況我們會(huì)想到用正則化、或者減小網(wǎng)絡(luò)規(guī)模。然而Hinton在2012年文獻(xiàn):《Improving neural networks by preventing co-adaptation of feature detectors》提出了,在每次訓(xùn)練的時(shí)候,隨機(jī)讓一半的特征檢測(cè)器停過(guò)工作,這樣可以提高網(wǎng)絡(luò)的泛化能力,Hinton又把它稱(chēng)之為dropout。

第一種理解方式是,在每次訓(xùn)練的時(shí)候使用dropout,每個(gè)神經(jīng)元有百分之50的概率被移除,這樣可以使得一個(gè)神經(jīng)元的訓(xùn)練不依賴(lài)于另外一個(gè)神經(jīng)元,同樣也就使得特征之間的協(xié)同作用被減弱。Hinton認(rèn)為,過(guò)擬合可以通過(guò)阻止某些特征的協(xié)同作用來(lái)緩解。

第二種理解方式是,我們可以把dropout當(dāng)做一種多模型效果平均的方式。對(duì)于減少測(cè)試集中的錯(cuò)誤,我們可以將多個(gè)不同神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果取平均,而因?yàn)閐ropout的隨機(jī)性,我們每次dropout后,網(wǎng)絡(luò)模型都可以看成是一個(gè)不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),而此時(shí)要訓(xùn)練的參數(shù)數(shù)目卻是不變的,這就解脫了訓(xùn)練多個(gè)獨(dú)立的不同神經(jīng)網(wǎng)絡(luò)的時(shí)耗問(wèn)題。在測(cè)試輸出的時(shí)候,將輸出權(quán)重除以二,從而達(dá)到類(lèi)似平均的效果。

需要注意的是如果采用dropout,訓(xùn)練時(shí)間大大延長(zhǎng),但是對(duì)測(cè)試階段沒(méi)影響。

帶dropout的訓(xùn)練過(guò)程

而為了達(dá)到ensemble的特性,有了dropout后,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和預(yù)測(cè)就會(huì)發(fā)生一些變化。在這里使用的是dropout以pp的概率舍棄神經(jīng)元

訓(xùn)練層面

對(duì)應(yīng)的公式變化如下如下:

沒(méi)有dropout的神經(jīng)網(wǎng)絡(luò):

有dropout的神經(jīng)網(wǎng)絡(luò):

無(wú)可避免的,訓(xùn)練網(wǎng)絡(luò)的每個(gè)單元要添加一道概率流程。

測(cè)試層面

預(yù)測(cè)的時(shí)候,每一個(gè)單元的參數(shù)要預(yù)乘以p。

除此之外還有一種方式是,在預(yù)測(cè)階段不變,而訓(xùn)練階段改變。

Inverted Dropout的比例因子是

關(guān)于這個(gè)比例我查了不少資料,前面的是論文的結(jié)論;后面是keras源碼中dropout的實(shí)現(xiàn)。有博客寫(xiě)的公式不一致,我寫(xiě)了一個(gè)我覺(jué)得是對(duì)的版本。

Dropout與其它正則化

Dropout通常使用L2歸一化以及其他參數(shù)約束技術(shù)。正則化有助于保持較小的模型參數(shù)值。

使用Inverted Dropout后,上述等式變?yōu)椋?/p>

可以看出使用Inverted Dropout,學(xué)習(xí)率是由因子q=1?p進(jìn)行縮放 。由于q在[0,1]之間,η和q之間的比例變化:

參考文獻(xiàn)將q稱(chēng)為推動(dòng)因素,因?yàn)槠淠茉鰪?qiáng)學(xué)習(xí)速率,將r(q)稱(chēng)為有效的學(xué)習(xí)速率。

有效學(xué)習(xí)速率相對(duì)于所選的學(xué)習(xí)速率而言更高:基于此約束參數(shù)值的規(guī)一化可以幫助簡(jiǎn)化學(xué)習(xí)速率選擇過(guò)程。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Dropout
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    10237
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5555

    瀏覽量

    122534

原文標(biāo)題:理解神經(jīng)網(wǎng)絡(luò)中的Dropout

文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于智能語(yǔ)音交互芯片的模擬訓(xùn)練器示教與回放系統(tǒng)設(shè)計(jì)

    ,提高了培訓(xùn)效果。回放系統(tǒng)通過(guò)記錄操作訓(xùn)練過(guò)程中各操作人員的口令、聲音強(qiáng)度、動(dòng)作、時(shí)間、操作現(xiàn)象等,待操作訓(xùn)練結(jié)束后通過(guò)重演訓(xùn)練過(guò)程,以便操作者及時(shí)糾正自己的問(wèn)題。示教系統(tǒng)也可理解為對(duì)標(biāo)準(zhǔn)操作
    發(fā)表于 07-01 08:07

    Python和Keras在訓(xùn)練期間如何將高斯噪聲添加到輸入數(shù)據(jù)中呢?

    噪聲,模型被迫學(xué)習(xí)對(duì)輸入中的微小變化具有魯棒性的特征,這可以幫助它在新的、看不見(jiàn)的數(shù)據(jù)上表現(xiàn)更好。 高斯噪聲也可以在訓(xùn)練過(guò)程中添加到神經(jīng)網(wǎng)絡(luò)的權(quán)重中以提高其性能,這種技術(shù)稱(chēng)為 Dropout。讓我們
    發(fā)表于 02-16 14:04

    基于有限狀態(tài)機(jī)的虛擬訓(xùn)練過(guò)程模型研究

    通過(guò)一個(gè)基于操作規(guī)程的虛擬訓(xùn)練系統(tǒng)研究了系統(tǒng)仿真流程,分析了有限狀態(tài)機(jī)(FSM)的原理,結(jié)合虛擬仿真訓(xùn)練的特點(diǎn),設(shè)計(jì)出了操作過(guò)程模型,并通過(guò)Windows 消息機(jī)制編程實(shí)
    發(fā)表于 12-07 14:23 ?14次下載

    理解神經(jīng)網(wǎng)絡(luò)中的Dropout

    dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),對(duì)于隨機(jī)梯度下降來(lái)說(shuō),由于是隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)
    發(fā)表于 11-16 01:11 ?3961次閱讀
    理解神經(jīng)網(wǎng)絡(luò)中的<b class='flag-5'>Dropout</b>

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中的SGD的并行化設(shè)計(jì)

    for parallelizing convolutional neural networks 本文也將針對(duì)這篇文章給出分析。 1、簡(jiǎn)介 介紹一種卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中的SGD的并行化方法。
    發(fā)表于 11-16 14:43 ?3511次閱讀

    分類(lèi)器的訓(xùn)練過(guò)程

    opencv中haar、lbp的訓(xùn)練原理及過(guò)程
    發(fā)表于 11-27 15:18 ?0次下載

    基于分割后門(mén)訓(xùn)練過(guò)程的后門(mén)防御方法

    后門(mén)攻擊的目標(biāo)是通過(guò)修改訓(xùn)練數(shù)據(jù)或者控制訓(xùn)練過(guò)程等方法使得模型預(yù)測(cè)正確干凈樣本,但是對(duì)于帶有后門(mén)的樣本判斷為目標(biāo)標(biāo)簽。例如,后門(mén)攻擊者給圖片增加固定位置的白塊(即中毒圖片)并且修改圖片的標(biāo)簽為目標(biāo)標(biāo)簽。用這些中毒數(shù)據(jù)訓(xùn)練模型過(guò)后
    的頭像 發(fā)表于 01-05 09:23 ?1274次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過(guò)程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過(guò)程以及模型的評(píng)估與調(diào)優(yōu)。
    的頭像 發(fā)表于 07-01 16:13 ?2476次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)及訓(xùn)練過(guò)程

    訓(xùn)練過(guò)程以及應(yīng)用場(chǎng)景。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,它是一種數(shù)學(xué)運(yùn)算,用于提取圖像中的局部特征。卷積運(yùn)算的過(guò)程如下: (1)定義卷積核:卷積核是一個(gè)小的矩陣,用于在輸入圖像上滑動(dòng),提取局部特征。 (2)滑動(dòng)窗口:將
    的頭像 發(fā)表于 07-02 14:21 ?4206次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過(guò)程及應(yīng)用領(lǐng)域

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過(guò)程以及應(yīng)用領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1 卷積運(yùn)算 卷積運(yùn)算是CNN模型的核心,它是一種數(shù)學(xué)運(yùn)算
    的頭像 發(fā)表于 07-02 15:26 ?5556次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和訓(xùn)練過(guò)程

    處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時(shí)表現(xiàn)出色。本文將從卷積神經(jīng)網(wǎng)絡(luò)的歷史背景、基本原理、網(wǎng)絡(luò)結(jié)構(gòu)、訓(xùn)練過(guò)程以及應(yīng)用領(lǐng)域等方面進(jìn)行詳細(xì)闡述,以期全面解析這一重要算法。
    的頭像 發(fā)表于 07-02 18:27 ?1648次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過(guò)程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來(lái)在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過(guò)構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動(dòng)學(xué)習(xí)并提取特征,進(jìn)而實(shí)現(xiàn)高效準(zhǔn)確的預(yù)測(cè)和分類(lèi)。本文將深入解讀深度學(xué)習(xí)中的典型模型及其訓(xùn)練過(guò)程,旨在為讀者提供一個(gè)全面而深入的理解。
    的頭像 發(fā)表于 07-03 16:06 ?2790次閱讀

    解讀PyTorch模型訓(xùn)練過(guò)程

    PyTorch作為一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)庫(kù),以其動(dòng)態(tài)計(jì)算圖、易于使用的API和強(qiáng)大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全過(guò)程,包括數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、訓(xùn)練循環(huán)、評(píng)估與保存等關(guān)鍵步驟,并結(jié)合
    的頭像 發(fā)表于 07-03 16:07 ?1760次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和訓(xùn)練過(guò)程

    網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)誤差反向傳播算法(Error Backpropagation Algorithm)來(lái)訓(xùn)練網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)復(fù)雜問(wèn)題的學(xué)習(xí)和解決。以下將詳細(xì)闡述BP神經(jīng)網(wǎng)絡(luò)的工作方式,涵蓋其基本原理、訓(xùn)練過(guò)程、應(yīng)用實(shí)例以及優(yōu)缺點(diǎn)等多個(gè)方面。
    的頭像 發(fā)表于 07-10 15:07 ?7606次閱讀
    BP神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和<b class='flag-5'>訓(xùn)練過(guò)程</b>

    GPU是如何訓(xùn)練AI大模型的

    在AI模型的訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編您了解GPU是如何訓(xùn)練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?659次閱讀
    主站蜘蛛池模板: 欧美精品色精品一区二区三区 | 加勒比一区二区三区 | yy肉戏多纯黄的小说 | 91午夜剧场 | 亚洲特黄大黄一级毛片 | 一区二区视频 | 亚洲一区二区三区麻豆 | 亚洲一区有码 | 久久xx| 熟妇毛片 | 一级片在线观看免费 | 特级黄aaaaaaaaa毛片 | www日本黄色 | 国产精品久久久久久久牛牛 | 天天做天天操 | 小泽玛利亚厕所大喷水 | riav久久中文一区二区 | 五月婷婷亚洲综合 | 综合精品| 国产伦理一区二区三区 | 丁香午夜婷婷 | 年下攻高h好涨 | 黄色网址在线播放 | 婷婷久久综合九色综合九七 | 欧美三级 欧美一级 | 午夜在线观看完整高清免费 | 涩涩涩综合在线亚洲第一 | 伊人天天操 | 视频在线观看免费网站 | 日本69sex护士wwxx | 34看网片午夜理 | 天天操夜夜逼 | 福利在线看片 | 在线观看播放视频www | 成人国产精品一级毛片了 | 日韩一卡 二卡 三卡 四卡 免费视频 | 色狠狠色综合久久8狠狠色 色狠狠网 | 视频在线观看高清免费看 | 午夜视频播放 | 日本护士撒尿 | 亚洲成人网在线播放 |