在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文帶你了解RNN、LTSM、Seq2Seq、Attention機制

智能生物識別說 ? 來源:快商通AI ? 作者:快商通AI ? 2021-09-27 18:03 ? 次閱讀

上一章我們詳細介紹了小樣本做文本分類中的膠囊網絡,那么這一章我們就來看看RNN(循環神經網絡)。大神們準備好了嗎,我們要發車了~

首先就是我們為什么需要RNN?

舉個簡單的例子,最近娛樂圈頂流明星吳亦凡又出新瓜,大家都吃了咩?(反正小編吃的很飽哈)那么就以我 吃 瓜為例,三個單詞標注詞性為 我/nn 吃/v 瓜/nn。

那么這個任務的輸入就是:

我 吃 瓜 (已經分詞好的句子)

這個任務的輸出是:

我/nn 吃/v 瓜/nn(詞性標注好的句子)

很明顯,一個句子中,前一個單詞其實對于當前單詞的詞性預測是有很大影響的,比如預測“瓜”的時候,由于前面的吃是一個動詞,那么很顯然“瓜”作為名詞的概率就會遠大于動詞的概率,因為動詞后面接名詞很常見,而動詞后面接動詞很少見。

所以為了更好的處理序列的信息,解決一些這樣類似的問題,我們的RNN就誕生了。

rnn的結構和原理

看完初步的概念我們來深入一點看看RNN的結構和原理。rnn的結構和原理

pYYBAGC4meiAAdlHAABjM2jJoEw935.jpg

剛開始看到這幅圖的同學會不會有一點懵懵?沒關系,我們來帶著解釋一遍~

首先通過這副圖,就能明白RNN的意義就是每個輸出的狀態都只由前一時刻的狀態和當前時刻的輸入來決定。從等式左邊的一個環繞箭頭就能明白參數是共享的。

一個序列的每個詞就是每個時間步,每個詞都會對應得到一個hidden_state,并將這個隱藏層狀態輸入下一個時間步。

最終會得到output和hidden,output是每一步運算的輸出,因此output=(seqence_len, batch_size, hidden_size)。hidden_state是每一步的輸出,當然有參數來控制可以取最后一步的輸出,所以RNN中一般output=hidden。

lstm的結構和原理

聊完一圈RNN之后,我們來看看它的變種兄弟-LSTM吧!

別慌,我說的不是變種成僵尸的那種東東,Lstm為長短期記憶,是在RNN的基礎上引入了細胞狀態,根據細胞狀態可決定哪些狀態應該保留下來,哪些狀態應該被遺忘,可以在一定程度上解決梯度消失問題。

那么為了能夠學習序列關系的長期依賴,Lstm的輸出和rnn一樣都包含output和hidden,除此之外還有一個cell_state,這個就是學習序列信息lstm與rnn的差異。

在lstm里面理解的就是用“門”結構,來選擇信息通過,關鍵是用了$sigmoid(\cdot)$函數來區分趨于0的和趨于1的特征數據。

遺忘門:通過$f_t=\sigma(W_f \cdot[h_{t-1},x_t] + b_f)$ 來判斷隱藏層信息的取舍。

輸入門:

poYBAGC4meWADv9WAAAccVYUC9w682.jpg

通過$\tanh(\cdot)$,來將隱藏層狀態映射到(-1,1)最后來更新$C_{t-1}$ 到$C_t $

輸出門:

pYYBAGC4meyAMy7aAAAWL7NbiQI218.jpg

會發現$f_t、i_t、o_t$的構成是一致的。但是通過不同的權重來學習。因此優化lstm是將遺忘門和輸入門合并成了一個更新門,這就是GRU:

可以理解為主要分為兩部分,第一部分:

pYYBAGC4me2AOoxXAAASZqSshqY694.jpg

$z_t$表示更新向量,$r_t$表示重置向量,于是在接下來就能夠考慮$r_t$與$h_{t-1}$的相關性來去對部分數據進行重置,也就相當于舍棄。實現遺忘門的效果。

第二部分:

poYBAGC4meiAGOzMAAAd9tihyU0202.jpg

很好理解,就可以通過篩選得到的有效的隱藏層信息$\tilde{h}t$和更新向量來獲取最終的輸出結果$(1-z_t) * h{t-1}$表示對當前一時刻隱藏層狀態選擇性“遺忘”。$z_t * \tilde{h}_t$就表示對當前序列信息的“記憶”。

sequence-to-sequence的結構和原理

也叫做Encoder-Decoder結構,在encoder和decoder中也都是用序列模型,就是將數據先encode成一個上下文向量context vector,這個context vector可以是1)最后一個隱藏層狀態,2)可以是完整的隱藏層輸出,3)也可以是對隱藏層輸出做激活或者線性變換之后的輸出。

之后在decoder中,將context vector作為前一時刻初始化的狀態輸入從而將語義按監督信息的需要解碼。或者將context vector作為decoder每一個時間步的輸入。因此會發現seq2seq并不限制輸入和輸出的序列長度,這就表示應用范圍可以很廣。

Attention

會發現context vector并不能夠包含長句的所有信息,或者說會造成信息的丟失,因此attention機制就是能夠向decoder的每一個時間步輸入不同的文本信息,提升語義的理解能力。

因為lstm會得到完整的包含每一個時間步的輸出得到的ouput和hidden,因此$h_i$和$C_j$的相關性就能夠表示在decode第$j$步序列時最關心的文本是那一步的 $h_i $,用 $\alpha_{ij}$來表示。

每一個encoder的hidden單元和每一個decoder的hidden單元做點乘,得到每兩個單元之間的相關性,在lstm/rnn之后用attention就是計算hidden和ouput的每個單元之間的相關性,然后做一步$softmax$得到encoder的hidden或者說是lstm的hidden每個單元的attention weights。因此:Attention 無非就是這三個公式:

poYBAGC4meqAKxjvAAAT3nJUrlE172.jpg

從常規的(Q,K,V)的角度來理解,可以如圖所示:

pYYBAGC4mfCAE2pwAAApg85OSxU468.jpg

在Attention中$Q$和$K$分別是hidden和output,同樣的$V$也是ouput,在self-attention中Q=K=V,并且$\sqrt{d_k}$有些情況下是不會加在attention過程中的。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7149

    瀏覽量

    89598
  • Gru
    Gru
    +關注

    關注

    0

    文章

    12

    瀏覽量

    7505
收藏 人收藏

    評論

    相關推薦

    RNN的應用領域及未來發展趨勢

    循環神經網絡(Recurrent Neural Network, RNN)是種適合于處理序列數據的深度學習模型。由于其獨特的循環結構,RNN能夠處理時間序列數據,捕捉時間序列中的動態特征,因此在
    的頭像 發表于 11-15 10:10 ?679次閱讀

    RNN與LSTM模型的比較分析

    RNN(循環神經網絡)與LSTM(長短期記憶網絡)模型在深度學習領域都具有處理序列數據的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 、基本原理與結構
    的頭像 發表于 11-15 10:05 ?855次閱讀

    RNN的基本原理與實現

    RNN,即循環神經網絡(Recurrent Neural Network),是種特殊類型的人工神經網絡,專門設計用于處理序列數據,如文本、語音、視頻等。以下是對RNN基本原理與實現的介紹:
    的頭像 發表于 11-15 09:49 ?649次閱讀

    詳解SiC的晶體缺陷

    SiC晶體中存在各種缺陷,對SiC器件性能有直接的影響。研究清楚各類缺陷的構成和生長機制非常重要。本文帶你了解SiC的晶體缺陷及其如何影響SiC器件特性。
    的頭像 發表于 11-14 14:53 ?989次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>詳解SiC的晶體缺陷

    LSTM神經網絡與傳統RNN的區別

    在深度學習領域,循環神經網絡(RNN)因其能夠處理序列數據而受到廣泛關注。然而,傳統RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這問題,LSTM(長短期記憶)神經網絡應
    的頭像 發表于 11-13 09:58 ?476次閱讀

    智慧公交是什么?帶你詳解智慧公交的解決方案!

    智慧公交是什么?帶你詳解智慧公交的解決方案!
    的頭像 發表于 11-05 12:26 ?424次閱讀
    智慧公交是什么?<b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>帶你</b>詳解智慧公交的解決方案!

    rnn是什么神經網絡

    RNN(Recurrent Neural Network,循環神經網絡)是種具有循環連接的神經網絡,它能夠處理序列數據,并且具有記憶能力。與傳統的前饋神經網絡(Feedforward Neural
    的頭像 發表于 07-05 09:49 ?787次閱讀

    rnn神經網絡模型原理

    RNN(Recurrent Neural Network,循環神經網絡)是種具有循環結構的神經網絡,它能夠處理序列數據,具有記憶功能。RNN在自然語言處理、語音識別、時間序列預測等領域有著廣泛
    的頭像 發表于 07-04 15:40 ?690次閱讀

    RNN神經網絡適用于什么

    RNN(Recurrent Neural Network,循環神經網絡)是種具有循環結構的神經網絡,它可以處理序列數據,具有記憶功能。RNN在許多領域都有廣泛的應用,以下是
    的頭像 發表于 07-04 15:04 ?1064次閱讀

    rnn神經網絡基本原理

    RNN(Recurrent Neural Network,循環神經網絡)是種具有循環結構的神經網絡,它能夠處理序列數據,并且能夠捕捉時間序列數據中的動態特征。RNN在自然語言處理、語音識別、時間
    的頭像 發表于 07-04 15:02 ?795次閱讀

    基于神經網絡的呼吸音分類算法

    。因此,seq2seq中的注意力擴展了解碼器在序列預測過程中的視野。我們的MASK層依賴于預測的噪聲和異常標簽,因為它接收來自兩個RNN塊的梯度。我們進行了額外的實驗,以表明具有MASK機制
    發表于 05-31 12:05

    帶你了解PWM原理、頻率與占空比

    什么是PWM脈沖寬度調制(PWM),是英文“Pulse Width Modulation”的縮寫,簡稱脈寬調制,是利用微處理器的數字輸出來對模擬電路進行控制的種非常有效的技術,廣泛應用在從測量
    發表于 03-27 14:12

    Xilinx FPGA NVMe主機控制器IP,高性能版本介紹應用

    ,使用NVMe的多隊列特性,NVMe Host Controller IP支持靈活配置DMA讀寫的通道個數,按照NVMe隊列優先級仲裁機制,實現多個DMA通道對同塊PCIe SSD的高效訪問,從而
    發表于 03-09 13:56

    什么是RNN (循環神經網絡)?

    循環神經網絡 (RNN) 是種深度學習結構,它使用過去的信息來提高網絡處理當前和將來輸入的性能。RNN 的獨特之處在于該網絡包含隱藏狀態和循環。
    發表于 02-29 14:56 ?4207次閱讀
    什么是<b class='flag-5'>RNN</b> (循環神經網絡)?

    pcb應變測試有多重要?了解

    pcb應變測試有多重要?了解
    的頭像 發表于 02-24 16:26 ?1184次閱讀
    主站蜘蛛池模板: 国产片翁熄系列乱在线视频 | 国产情侣真实露脸在线最新 | 性free3d | 性生大片一级毛片免费观看 | 欧美成人亚洲欧美成人 | 天天干在线影院 | 亚洲精品国产自在久久出水 | 91免费视频网站 | 51影院在线观看成人免费 | 4438x成人全国最大 | 丁香六月啪啪 | 高清性色生活片欧美在线 | 免费在线观看一级毛片 | 国产精品资源在线 | 日本欧美强乱视频在线 | 你懂的网站在线观看 | 国产久爱青草视频在线观看 | 亚洲精品色图 | 在线免费视频手机版 | 97精品伊人久久久大香线焦 | 欧美一级在线全免费 | 亚洲免费一级片 | 天天看黄色 | 操久在线 | 国产网红主播chinese | 午夜视频在线 | 免费边摸边吃奶边叫床视频gif | 天堂在线资源网 | 天天视频免费观看高清影视 | 奇米成人影视 | 在线看片成人免费视频 | 色拍视频 | 一区二区三区中文字幕 | 亚洲精品日韩专区silk | 在线黄网| 日韩免费观看视频 | 午夜高清在线观看免费6 | 亚洲大成色www永久网址 | 日韩在线一区二区 | 色多多在线 | 在线观看视频h |