在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文帶你簡單理解LSTM神經網絡

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2021-01-20 22:55 ? 次閱讀

遞歸神經網絡

在傳統神經網絡中,模型不會關注上一時刻的處理會有什么信息可以用于下一時刻,每一次都只會關注當前時刻的處理。舉個例子來說,我們想對一部影片中每一刻出現的事件進行分類,如果我們知道電影前面的事件信息,那么對當前時刻事件的分類就會非常容易。實際上,傳統神經網絡沒有記憶功能,所以它對每一刻出現的事件進行分類時不會用到影片已經出現的信息,那么有什么方法可以讓神經網絡能夠記住這些信息呢?答案就是Recurrent Neural Networks(RNNs)遞歸神經網絡。

遞歸神經網絡的結果與傳統神經網絡有一些不同,它帶有一個指向自身的環,用來表示它可以傳遞當前時刻處理的信息給下一時刻使用,結構如下:

pIYBAGAIQQ-AcSdVAABU7tq9d4A454.png

其中, Xt 為輸入,A 為模型處理部分, ht 為輸出。

為了更容易地說明遞歸神經網絡,我們把上圖展開,得到:

o4YBAGAIQU-AP-wnAAFv8_Qf97U175.png

這樣的一條鏈狀神經網絡代表了一個遞歸神經網絡,可以認為它是對相同神經網絡的多重復制,每一時刻的神經網絡會傳遞信息給下一時刻。如何理解它呢?假設有這樣一個語言模型,我們要根據句子中已出現的詞預測當前詞是什么,遞歸神經網絡的工作原理如下:

pIYBAGAIQY-AR-60AAEwuwPaQgI637.png

其中,W 為各類權重,x 表示輸入,y 表示輸出,h 表示隱層處理狀態。

遞歸神經網絡因為具有一定的記憶功能,可以被用來解決很多問題,例如:語音識別、語言模型、機器翻譯等。但是它并不能很好地處理長時依賴問題。

長時依賴問題

長時依賴是這樣的一個問題,當預測點與依賴的相關信息距離比較遠的時候,就難以學到該相關信息。例如在句子”我出生在法國,……,我會說法語“中,若要預測末尾”法語“,我們需要用到上下文”法國“。理論上,遞歸神經網絡是可以處理這樣的問題的,但是實際上,常規的遞歸神經網絡并不能很好地解決長時依賴,好的是LSTMs可以很好地解決這個問題。

LSTM 神經網絡

Long Short Term Mermory network(LSTM)是一種特殊的RNNs,可以很好地解決長時依賴問題。那么它與常規神經網絡有什么不同?
首先我們來看RNNs具體一點的結構:

o4YBAGAIQhmAF8PaAALDHWy9qlE458.png

所有的遞歸神經網絡都是由重復神經網絡模塊構成的一條鏈,可以看到它的處理層非常簡單,通常是一個單tanh層,通過當前輸入及上一時刻的輸出來得到當前輸出。與神經網絡相比,經過簡單地改造,它已經可以利用上一時刻學習到的信息進行當前時刻的學習了。

LSTM的結構與上面相似,不同的是它的重復模塊會比較復雜一點,它有四層結構:

o4YBAGAIQmSACJm6AAOBOOunrrE030.png

其中,處理層出現的符號及表示意思如下:

o4YBAGAIQrOAE0HkAABgfmDk8Kc927.png

LSTMs的核心思想

理解LSTMs的關鍵就是下面的矩形方框,被稱為memory block(記憶塊),主要包含了三個門(forget gate、input gate、output gate)與一個記憶單元(cell)。方框內上方的那條水平線,被稱為cell state(單元狀態),它就像一個傳送帶,可以控制信息傳遞給下一時刻。

o4YBAGAIQveAdj3mAADMQBhyKMk954.png

這個矩形方框還可以表示為:

pIYBAGAIQzeAXPVOAAA9OhrBYLo440.png

這兩個圖可以對應起來看,下圖中心的 ct 即cell,從下方輸入( ht?1 , xt )到輸出 ht的一條線即為cell state, ft,it,ot 分別為遺忘門、輸入門、輸出門,用sigmoid層表示。上圖中的兩個tanh層則分別對應cell的輸入與輸出。

LSTM可以通過門控單元可以對cell添加和刪除信息。通過門可以有選擇地決定信息是否通過,它有一個sigmoid神經網絡層和一個成對乘法操作組成,如下:

pIYBAGAIQ3yAAPxaAAAUYxfcoJw475.png

該層的輸出是一個介于0到1的數,表示允許信息通過的多少,0 表示完全不允許通過,1表示允許完全通過。

逐步解析LSTM

LSTM第一步是用來決定什么信息可以通過cell state。這個決定由“forget gate”層通過 sigmoid 來控制,它會根據上一時刻的輸出 ht?1 和當前輸入 xt 來產生一個0到1 的 ft 值,來決定是否讓上一時刻學到的信息 Ct?1 通過或部分通過。如下:

pIYBAGAIQ7uAJh9kAAD-CrKq7tY692.png

舉個例子來說就是,我們在之前的句子中學到了很多東西,一些東西對當前來講是沒用的,可以對它進行選擇性地過濾。

第二步是產生我們需要更新的新信息。這一步包含兩部分,第一個是一個“input gate”層通過sigmoid來決定哪些值用來更新,第二個是一個tanh層用來生成新的候選值pIYBAGAIQ_iAaxvgAAABwIVoaPY048.png,它作為當前層產生的候選值可能會添加到cell state中。我們會把這兩部分產生的值結合來進行更新。

o4YBAGAIRDiAUXItAAE2k80YWAA481.png

現在我們對老的cell state進行更新,首先,我們將老的cell state乘以 ft 來忘掉我們不需要的信息,然后再與 it ? pIYBAGAIQ_iAaxvgAAABwIVoaPY048.png相加,得到了候選值。
一二步結合起來就是丟掉不需要的信息,添加新信息的過程:

舉個例子就是,在前面的句子中我們保存的是張三的信息,現在有了新的李四信息,我們需要把張三的信息丟棄掉,然后把李四的信息保存下來。

最后一步是決定模型的輸出,首先是通過sigmoid層來得到一個初始輸出,然后使用tanh將 Ct 值縮放到-1到1間,再與sigmoid得到的輸出逐對相乘,從而得到模型的輸出。

這顯然可以理解,首先sigmoid函數的輸出是不考慮先前時刻學到的信息的輸出,tanh函數是對先前學到信息的壓縮處理,起到穩定數值的作用,兩者的結合學習就是遞歸神經網絡的學習思想。至于模型是如何學習的,那就是后向傳播誤差學習權重的一個過程了。

上面是對LSTM一個典型結構的理解,當然,它也會有一些結構上的變形,但思想基本不變,這里也就不多講了。

來源:電子創新網

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4785

    瀏覽量

    101273
  • LSTM
    +關注

    關注

    0

    文章

    59

    瀏覽量

    3799
收藏 人收藏

    評論

    相關推薦

    LSTM神經網絡與其他機器學習算法的比較

    隨著人工智能技術的飛速發展,機器學習算法在各個領域中扮演著越來越重要的角色。長短期記憶網絡LSTM)作為種特殊的循環神經網絡(RNN),因其在處理序列數據方面的優勢而受到廣泛關注。
    的頭像 發表于 11-13 10:17 ?1114次閱讀

    深度學習框架中的LSTM神經網絡實現

    長短期記憶(LSTM網絡種特殊的循環神經網絡(RNN),能夠學習長期依賴信息。與傳統的RNN相比,LSTM通過引入門控機制來解決梯度消
    的頭像 發表于 11-13 10:16 ?494次閱讀

    基于LSTM神經網絡的情感分析方法

    情感分析是自然語言處理(NLP)領域的項重要任務,旨在識別和提取文本中的主觀信息,如情感傾向、情感強度等。隨著深度學習技術的發展,基于LSTM(長短期記憶)神經網絡的情感分析方法因其出色的序列建模
    的頭像 發表于 11-13 10:15 ?670次閱讀

    LSTM神經網絡在圖像處理中的應用

    長短期記憶(LSTM神經網絡種特殊的循環神經網絡(RNN),它能夠學習長期依賴關系。雖然LSTM最初是為處理序列數據設計的,但近年來,
    的頭像 發表于 11-13 10:12 ?688次閱讀

    如何使用Python構建LSTM神經網絡模型

    構建LSTM(長短期記憶)神經網絡模型是個涉及多個步驟的過程。以下是使用Python和Keras庫構建LSTM模型的指南。 1. 安裝
    的頭像 發表于 11-13 10:10 ?624次閱讀

    LSTM神經網絡的訓練數據準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡的訓練數據準備方法是個關鍵步驟,它直接影響到模型的性能和效果。以下是些關于
    的頭像 發表于 11-13 10:08 ?920次閱讀

    LSTM神經網絡的結構與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡種特殊的循環神經網絡(RNN),設計用于解決長期依賴問題,特別是在處理時間序列數據時表現出色。以下是
    的頭像 發表于 11-13 10:05 ?631次閱讀

    LSTM神經網絡在語音識別中的應用實例

    語音識別技術是人工智能領域的個重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發展,特別是長短期記憶(LSTM神經網絡的引入,語音識別的準確性和效率得到了顯著提升。
    的頭像 發表于 11-13 10:03 ?853次閱讀

    LSTM神經網絡的調參技巧

    長短時記憶網絡(Long Short-Term Memory, LSTM)是種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在實際應用中,
    的頭像 發表于 11-13 10:01 ?874次閱讀

    LSTM神經網絡與傳統RNN的區別

    在深度學習領域,循環神經網絡(RNN)因其能夠處理序列數據而受到廣泛關注。然而,傳統RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這問題,LSTM(長短期記憶)神經網絡
    的頭像 發表于 11-13 09:58 ?519次閱讀

    LSTM神經網絡的優缺點分析

    長短期記憶(Long Short-Term Memory, LSTM神經網絡種特殊的循環神經網絡(RNN),由Hochreiter和Schmidhuber在1997年提出。
    的頭像 發表于 11-13 09:57 ?2403次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短期記憶(LSTM
    的頭像 發表于 11-13 09:56 ?503次閱讀

    LSTM神經網絡在時間序列預測中的應用

    時間序列預測是數據分析中的個重要領域,它涉及到基于歷史數據預測未來值。隨著深度學習技術的發展,長短期記憶(LSTM神經網絡因其在處理序列數據方面的優勢而受到廣泛關注。 LSTM
    的頭像 發表于 11-13 09:54 ?896次閱讀

    LSTM神經網絡的基本原理 如何實現LSTM神經網絡

    LSTM(長短期記憶)神經網絡種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在處理序列數據時,如時間序列分析、自然語言處理等,LSTM
    的頭像 發表于 11-13 09:53 ?664次閱讀

    如何理解RNN與LSTM神經網絡

    在深入探討RNN(Recurrent Neural Network,循環神經網絡)與LSTM(Long Short-Term Memory,長短期記憶網絡神經網絡之前,我們首先需要明
    的頭像 發表于 07-09 11:12 ?756次閱讀
    主站蜘蛛池模板: 午夜视频一区 | 亚洲视频1 | 国产二区三区 | 欧美人与动另类在线 | 久久久久久噜噜噜久久久精品 | 91大神大战丝袜美女在线观看 | bt天堂资源在线种子 | 免费啪啪网站 | 欧美一卡二卡科技有限公司 | 亚洲区中文字幕 | 激情五月亚洲 | 亚洲色图综合网 | 午夜影院免费 | 性 色 黄 一级 | 国产乱码一区二区三区四川人 | 2021色噜噜狠狠综曰曰曰 | 香蕉爱爱网 | 国产精品久久福利网站 | 国产乱子伦一区二区三区 | 夜夜春宵翁熄性放纵古代 | 成人免费看黄网站yyy456 | 天天夜干 | 亚洲综合激情九月婷婷 | avbobo在线 | 亚洲综合久久久久久888 | 在线看3344免费视频 | 国产色视频一区 | 色香淫欲| 99热精品久久只有精品30 | 亚洲免费影视 | 性欧美激情在线观看 | 国产福利乳摇在线播放 | 黄色三级网站免费 | 免费看特级淫片日本 | 久久综合九色综合98一99久久99久 | 亚洲小说区图片区另类春色 | h网站在线播放 | 色宅男午夜电影在线观看 | 欧美香蕉视频 | 亚洲第一色图 | 手机在线看片你懂得 |