在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

dKBf_eetop_1 ? 來源:工程師曾玲 ? 2019-04-06 17:24 ? 次閱讀

一、循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

循環(huán)神經(jīng)網(wǎng)絡(luò),英文全稱:Recurrent Neural Network,或簡(jiǎn)單記為RNN。需要注意的是,遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network)的簡(jiǎn)寫也是RNN,但通常RNN指循環(huán)神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。它與其他神經(jīng)網(wǎng)絡(luò)的不同是,RNN可以更好的去處理序列的信息,即認(rèn)準(zhǔn)了前后的輸入之間存在關(guān)系。在NLP中,去理解一整句話,孤立的理解組成這句話的詞顯然是不夠的,我們需要整體的處理由這些詞連接起來的整個(gè)序列。

如:(1) 我餓了,我要去食堂___。(2) 我飯卡丟了,我要去食堂___。很顯然,第一句話是想表明去食堂就餐,而第二句則很有可能因?yàn)閯偝赃^飯,發(fā)現(xiàn)飯卡不見了,去食堂尋找飯卡。而在此之前,我們常用的語言模型是N-Gram,無論何種語境,可能去食堂大概率匹配的是“吃飯”而不在乎之前的信息。RNN就解決了N-Gram的缺陷,它在理論上可以往前(后)看任意多個(gè)詞。

此文是我在學(xué)習(xí)RNN中所做的筆記,參考資料在文末提及。

二、循環(huán)神經(jīng)網(wǎng)絡(luò)分類

a.簡(jiǎn)單的MLP神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

簡(jiǎn)單的MLP三層網(wǎng)絡(luò)模型,x、o為向量,分別表示輸入層、輸出層的值;U、V為矩陣,U是輸入層到隱藏層的權(quán)重矩陣,V是隱藏層到輸出層的權(quán)重矩陣。

b.循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

與簡(jiǎn)單的MLP神經(jīng)網(wǎng)絡(luò)不容的是,循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層的值s不僅取決于當(dāng)前的這次輸入x,還取決于上一次隱藏層的值s。權(quán)重就在W就是隱藏層上一次的值作為這一次輸入的輸入的權(quán)重。將上圖展開:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

由上圖可知以下公式,其中V是輸出層權(quán)重矩陣,g是激活函數(shù);U是輸入x的權(quán)重矩陣,W是上一次的值st-1作為這一次的輸入的權(quán)重矩陣,f是激活函數(shù)。

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

反復(fù)帶入,即可得到:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

可見,循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出值ot受之前的輸出值xt、xt-1、xt-2所影響。

c. 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的計(jì)算方法:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

從上面三個(gè)公式可以看出: 正向計(jì)算時(shí),隱藏層的值與st 和 st-1有關(guān),而反向計(jì)算時(shí),隱藏層的值與s't和s't+1有關(guān);最終的輸出取決于正向與反向計(jì)算的加和。

d、深度循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

此前介紹的循環(huán)神經(jīng)網(wǎng)絡(luò)只有一個(gè)輸入層、一個(gè)循環(huán)層和一個(gè)輸出層。與全連接神經(jīng)網(wǎng)絡(luò)以及卷積神經(jīng)網(wǎng)絡(luò)一樣,可以把它推廣到任意多個(gè)隱藏層的情況,得到深層循環(huán)神經(jīng)網(wǎng)絡(luò)。深度循環(huán)神經(jīng)網(wǎng)絡(luò)包含多個(gè)隱藏層(上圖為了表示清楚,只列舉了2層),并且也繼承了雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的特點(diǎn)。由之前的公式類推,我們可以得到深度循環(huán)神經(jīng)網(wǎng)絡(luò)的計(jì)算方式:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

深層神經(jīng)網(wǎng)絡(luò)有3個(gè)方案:第一種叫做 Deep Input-to-Hidden Function,它在循環(huán)層之前加入多個(gè)普通的全連接層,將輸入向量進(jìn)行多層映射之后再送入循環(huán)層進(jìn)行處理。第二種方案是 Deep Hidden-to-Hidden Transition,它使用多個(gè)循環(huán)層,這和前饋神經(jīng)網(wǎng)絡(luò)類似,唯一不同的是計(jì)算隱含層輸出的時(shí)候需要利用本隱含層上一時(shí)刻的值。第三種方案是 Deep Hidden-to-Output Function,它在循環(huán)層到輸出層之間加入多個(gè)全連接層,這與第一種情況類似。上面公式展示的應(yīng)為第二種情況。

由于循環(huán)層一般用 tanh 作為激活函數(shù),層次過多之后會(huì)導(dǎo)致梯度消失問題。后面會(huì)提及。

三、網(wǎng)絡(luò)的訓(xùn)練及BPTT

循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是序列數(shù)據(jù),每個(gè)訓(xùn)練樣本是一個(gè)時(shí)間序列,包含多個(gè)相同維度的向量。網(wǎng)絡(luò)的參數(shù)如何通過訓(xùn)練確定?這里就要使用解決循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練問題的 Back Propagation Through Time 算法,簡(jiǎn)稱BPTT。

循環(huán)神經(jīng)網(wǎng)絡(luò)的每個(gè)訓(xùn)練樣本是一個(gè)時(shí)間序列,同一個(gè)訓(xùn)練樣本前后時(shí)刻的輸入值之間有關(guān)聯(lián),每個(gè)樣本的序列長(zhǎng)度可能不相同。訓(xùn)練時(shí)先對(duì)這個(gè)序列中的每個(gè)時(shí)刻的輸入值進(jìn)行正向傳播,再通過反向傳播計(jì)算出參數(shù)的梯度值并更新參數(shù)。

它包含三個(gè)步驟:(1)正向計(jì)算每個(gè)神經(jīng)元的輸出值;(2)反向計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)δj,它是誤差函數(shù)E對(duì)神經(jīng)元 j 的加權(quán)輸入netj的偏導(dǎo)數(shù);(3)計(jì)算每個(gè)權(quán)重的梯度;(4)用隨機(jī)梯度下降算法更新權(quán)重。具體的算法推導(dǎo)我會(huì)在之后的筆記整理中總結(jié)。

四、梯度爆炸、梯度消失

循環(huán)神經(jīng)網(wǎng)絡(luò)在進(jìn)行反向傳播時(shí)也面臨梯度消失或者梯度爆炸問題,這種問題表現(xiàn)在時(shí)間軸上。如果輸入序列的長(zhǎng)度很長(zhǎng),人們很難進(jìn)行有效的參數(shù)更新。通常來說梯度爆炸更容易處理一些。因?yàn)樘荻缺〞r(shí),我們的程序會(huì)收到NaN的錯(cuò)誤。我們也可以設(shè)置一個(gè)梯度閾值,當(dāng)梯度超過這個(gè)閾值的時(shí)候可以直接截取。

梯度消失更難檢測(cè),而且也更難處理一些。總的來說,我們有三種方法應(yīng)對(duì)梯度消失問題:

(1)合理的初始化權(quán)重值。初始化權(quán)重,使每個(gè)神經(jīng)元盡可能不要取極大或極小值,以多開梯度消失的區(qū)域。

(2) 使用 ReLu 代替 sigmoid 和 tanh 作為激活函數(shù)。

(3) 使用其他結(jié)構(gòu)的RNNs,比如長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LTSM)和 門控循環(huán)單元 (GRU),這是最流行的做法。

五、練手項(xiàng)目

可以參考github上比較出名的char_RNN的代碼來提高自己的興趣。該項(xiàng)目就是通過訓(xùn)練語料來自己寫詩(shī)、歌、文。

下圖是我的訓(xùn)練結(jié)果:

(1) 一首詩(shī),這首通過RNN訓(xùn)練寫出的詩(shī)還是不錯(cuò)的。“秋”與“春”是對(duì)應(yīng)的,描繪的是詩(shī)人在秋日,欣賞的山中風(fēng)景。不禁感嘆,自己的青春已去,自己也已經(jīng)白首,吟唱著這首詩(shī)(編不下去了…)。

(2) 通過自己找的《三體》全集,來訓(xùn)練出的小說片段。可以看到,只能模仿句式,不能有準(zhǔn)確表達(dá),所以邏輯不通的,但是形式是很像劉慈欣的寫法了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:中國(guó)成功研制出世界首個(gè)多自由度固態(tài)量子存儲(chǔ)器

文章出處:【微信號(hào):eetop-1,微信公眾號(hào):EETOP】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是RNN循環(huán)神經(jīng)網(wǎng)絡(luò))?

    循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是一種深度學(xué)習(xí)結(jié)構(gòu),它使用過去的信息來提高網(wǎng)絡(luò)處理當(dāng)前和將來輸入的性能。RNN
    發(fā)表于 02-29 14:56 ?4879次閱讀
    什么是<b class='flag-5'>RNN</b> (<b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>)?

    循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)的詳細(xì)介紹

    循環(huán)神經(jīng)網(wǎng)絡(luò)可以用于文本生成、機(jī)器翻譯還有看圖描述等,在這些場(chǎng)景中很多都出現(xiàn)了RNN的身影。
    的頭像 發(fā)表于 05-11 14:58 ?1.4w次閱讀
    <b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(<b class='flag-5'>RNN</b>)的詳細(xì)介紹

    循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)和(LSTM)初學(xué)者指南

    最近,有一篇入門文章引發(fā)了不少關(guān)注。文章中詳細(xì)介紹了循環(huán)神經(jīng)網(wǎng)絡(luò)RNN),及其變體長(zhǎng)短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?1144次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,
    的頭像 發(fā)表于 07-03 16:12 ?5517次閱讀

    什么是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))?RNN的基本原理和優(yōu)缺點(diǎn)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種專門用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它能夠在序列的演進(jìn)方向上進(jìn)行遞歸,并通過所有節(jié)點(diǎn)(
    的頭像 發(fā)表于 07-04 11:48 ?6669次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,簡(jiǎn)稱RvNN)是深度
    的頭像 發(fā)表于 07-04 14:19 ?1473次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度
    的頭像 發(fā)表于 07-04 14:24 ?1997次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)算法原理及特點(diǎn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù)。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:49 ?1289次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱R
    的頭像 發(fā)表于 07-04 14:54 ?1470次閱讀

    RNN神經(jīng)網(wǎng)絡(luò)適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它可以處理序列數(shù)據(jù),具有記憶功能。
    的頭像 發(fā)表于 07-04 15:04 ?1471次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶功能。
    的頭像 發(fā)表于 07-04 15:40 ?1054次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且具有記憶能力。
    的頭像 發(fā)表于 07-05 09:49 ?1283次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元
    的頭像 發(fā)表于 07-05 09:50 ?1115次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-05 09:52 ?974次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問題。為了解
    的頭像 發(fā)表于 11-13 09:58 ?1112次閱讀
    主站蜘蛛池模板: 日本加勒比在线播放 | 四虎影院在线视频 | 五月激情久久 | 男女视频在线 | 国产精品久久久久久久成人午夜 | 免费黄色国产视频 | 亚洲a影院 | www射| 色多多免费视频观看区一区 | 性夜影院爽黄a爽免费视频 性瘾高h姚蕊全文免费阅读 | 午夜综合 | 天天干天天舔天天射 | 免费在线观看一区二区 | 免费精品99久久国产综合精品 | 黄色三级视频 | 免费爱爱网站 | 最刺激黄a大片免费观看 | 国模精品一区二区 | 99久久久精品免费观看国产 | 小雪被老外黑人撑破了 | 一级毛片无毒不卡直接观看 | 中文字幕一区二区视频 | 五月开心六月伊人色婷婷 | 最刺激黄a大片免费观看下截 | 这里只有精品在线 | 人人看人人鲁狠狠高清 | 黄色免费看视频 | 2022国产情侣真实露脸在线 | 欧美在线不卡视频 | 91大神大战丝袜美女在线观看 | www色.com| 日本a级特黄三级三级三级 日本边添边爱边摸边做边爱 | 色五月婷婷成人网 | 黄色片不卡| 婷婷久久综合九色综合98 | 黄色a毛片 | 日本亚洲成人 | 国产在线永久视频 | 亚州免费一级毛片 | 国产午夜三区视频在线 | 中文字幕一区二区三区有限公司 |