在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自然語言入門之ESIM

jf_78858299 ? 來源:天宏NLP ? 作者: tianhongzxy ? 2023-02-22 11:34 ? 次閱讀

ESIM是ACL2017的一篇論文,在當時成為各個NLP比賽的殺器,直到現(xiàn)在仍是入門自然語言推理值得一讀的文章。

本文根據ESIM原文以及pytorch代碼實現(xiàn)對ESIM模型進行總結,有些地方的敘述保持了與代碼一致而和原文不一致,比如在embedding處與原文就不完全一致,原論文只使用了我下面所寫的initial embedding,不過在代碼性能上應該是不會比原文的更差的,因為代碼過長,僅放一些偽代碼幫助理解。計算過程公式稍多,但無非是LSTM和Attention,理解起來并不太困難。

介紹 Introduction

自然語言推斷 NLI

NLI任務主要是關于給定前提premise和假設hypothesis,要求判斷p和h的關系,二者的關系有三種:1.不相干 neural,2.沖突 contradiction,即p和h有矛盾,3.蘊含 entailment,即能從p推斷出h或兩者表達的是一個意思。

?為什么要研究自然語言推理呢?簡單來講,機器學習的整個系統(tǒng)可以分為兩塊,輸入,輸出。輸入要求我們能夠輸入一個機器能理解的東西,并且能夠很好的表現(xiàn)出數(shù)據的特點,輸出就是根據需要,生成我們需要的結果。也可以說整個機器學習可以分為Input Representation和Output Generation。因此,如何全面的表示輸入就變得非常重要了。而自然語言推理是一個分類任務,使用準確率就可以客觀有效的評價模型的好壞;這樣我們就可以專注于語義理解和語義表示。并且如果這部分做得好的話,例如可以生成很好的句子表示的向量,那么我們就可以將這部分成果輕易遷移到其他任務中,例如對話,問答等。這一切都說明了研究自然語言推理是一個非常重要而且非常有意義的事情。

?

下面從Stanford Natural Language Inference (SNLI) corpus數(shù)據集里舉幾個例子:

A woman with a green headscarf , blue shirt and a very big grin(咧嘴笑).

The woman is very happy .

上面兩個句子就是 「entailment(蘊含)」 ,因為女人在笑著,所以說她happy是可以推斷出來的。

A woman with a green headscarf , blue shirt and a very big grin .

The woman is young .

「neutral」

沖突矛盾(contradiction)的例子

A woman with a green headscarf , blue shirt and a very big grin.

The woman has been shot .

「contradiction」

她中槍了怎么可能還咧嘴笑呢?

模型架構 Models

圖片

輸入編碼 Input Encoding

輸入兩個句子,從one-hot經過embedding層,有兩個embedding層,分別是initial embedding( 「ie」 ) 和 pretrained embedding( 「pe」 ),都使用預訓練好的詞向量初始化,詞向量維度為,不同的是 ie 的詞表規(guī)模是訓練集語料的單詞個數(shù),pe 的詞表規(guī)模就是預訓練文件所包含的單詞數(shù),且 pe 參數(shù)被凍結,ie中沒被包含在預訓練文件的OOV單詞使用高斯分布隨機生成,且所有embedding的方差都被normalize到1,得到和,每個單詞的表示是一個 的向量,由其在 ie 和 pe 中對應的詞向量 concat 得到, 為預訓練詞向量維度,

src_words, src_extwords_embed, src_lens, src_masks,
tgt_words, tgt_extwords_embed, tgt_lens, tgt_masks = tinputs
src_dyn_embed = self.word_embed(src_words)
tgt_dyn_embed = self.word_embed(tgt_words)
src_embed = torch.cat([src_dyn_embed, src_extwords_embed], dim=-1)
tgt_embed = torch.cat([tgt_dyn_embed, tgt_extwords_embed], dim=-1)

之后使用雙向LSTM分別對a和b進行encoding,得到兩個句子的隱層狀態(tài)表示,論文中隱層向量的維度等于預訓練詞向量的維度,因為是bidirectional = True,所以 。

src_hiddens = self.lstm_enc(src_embed, src_lens)
tgt_hiddens = self.lstm_enc(tgt_embed, tgt_lens)

局部推理 Locality of inference

就是使用attention建立p和h之間的聯(lián)系,即進行對齊操作,a和b中兩個單詞的注意力權重由向量內積得到。

Local inference collected over sequences(不知道咋翻譯)

接著利用得到的注意力權重,對b進行加權求和,即從b中選取與相關的部分來得到表示,對b同理

similarity_matrix = premise_batch.bmm(hypothesis_batch.transpose(2, 1).contiguous())

# hyp_mask shape = [batch_size, tgt_len]
prem_hyp_attn = masked_softmax(similarity_matrix, hypothesis_mask)
# prem_mask shape = [batch_size, src_len]
hyp_prem_attn = masked_softmax(similarity_matrix.transpose(1, 2).contiguous(), premise_mask)

# Weighted sums of the hypotheses for the the premises attention,
# [batch_size, src_len, hidden_size]
src_hiddens_att = weighted_sum(hypothesis_batch,
                               prem_hyp_attn,
                               premise_mask)
# [batch_size, tgt_len, hidden_size]
tgt_hiddens_att = weighted_sum(premise_batch,
                               hyp_prem_attn,
                               hypothesis_mask)

局部推理信息增強 Enhancement of local inference information

現(xiàn)在a的每個單詞有兩個vector表示,分別是和,b亦然,再對兩個vector分別做element-wise的減法與乘法,并把它們 concat 到一起,得到維度為原來四倍長的vector,

src_diff_hiddens = src_hiddens - src_hiddens_att
src_prod_hiddens = src_hiddens * src_hiddens_att
# [batch_size, src_len, 2 * lstm_hiddens * 4] 乘2是雙向
src_summary_hiddens = torch.cat([src_hiddens, src_hiddens_att, src_diff_hiddens, 
                src_prod_hiddens], dim=-1)

tgt_diff_hiddens = tgt_hiddens - tgt_hiddens_att
tgt_prod_hiddens = tgt_hiddens * tgt_hiddens_att
tgt_summary_hiddens = torch.cat([tgt_hiddens, tgt_hiddens_att, tgt_diff_hiddens, 
                                tgt_prod_hiddens], dim=-1)

推理合成 Inference Composition

繼續(xù)使用LSTM提取特征,得到兩個句子因果關系表示。因為 concat 操作會使得參數(shù)量數(shù)倍增長,為了防止參數(shù)過多導致的過擬合,把和經過一個激活函數(shù)為ReLU的全連接層,將維度從投影到,這樣之后再經過一個BiLSTM層,得到

src_hiddens_proj = self.mlp(src_summary_hiddens)
tgt_hiddens_proj = self.mlp(tgt_summary_hiddens)
# [batch_size, src_len, 2 * lstm_hiddens]
src_final_hiddens = self.lstm_dec(src_hiddens_proj, src_lens)
tgt_final_hiddens = self.lstm_dec(tgt_hiddens_proj, tgt_lens)

池化層 Pooling

將組成整句話的sequence vectors分別通過 average pooling 和 max pooling(element-wise),變成單獨的一個vector,并將它們再次 concat 起來,得到能完整表示p和h以及兩者之間關系的final向量v

最后將他們送入分類層,分類層包括兩個全連接層,中間是tanh激活函數(shù),輸出維度為標簽種類個數(shù)。

hiddens = torch.cat([src_hidden_avg, src_hidden_max, tgt_hidden_avg, tgt_hidden_max], dim=1)
# [batch_size, tag_size]
outputs = self.proj(hiddens)

實驗 Experiments

數(shù)據集 Data

數(shù)據集使用的是Stanford Natural Language Inference (SNLI) corpus,每條數(shù)據是三個句子,分別代表premise, hypothesis和tag

訓練參數(shù)設置 Training

使用Adam優(yōu)化函數(shù),lr=0.0004,batch_size=32,所有LSTM的隱層狀態(tài)維度皆為300,dropout也被在各個層中使用且p=0.5,預訓練詞向量使用的是glove.840B.300d,在SNLI數(shù)據集上達到了88%的acc。

圖片

實驗結果

HIM是使用Tree-LSTM引入了句法信息的方法,較為復雜不再贅述,有興趣的同學可以去閱讀原文。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • eSIM
    +關注

    關注

    3

    文章

    245

    瀏覽量

    26936
  • 自然語言
    +關注

    關注

    1

    文章

    291

    瀏覽量

    13550
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22399
  • pytorch
    +關注

    關注

    2

    文章

    808

    瀏覽量

    13657
收藏 人收藏

    評論

    相關推薦

    python自然語言

    最近,python自然語言是越來越火了,那么什么是自然語言自然語言(Natural Language )廣納了眾多技術,對自然或人類語言
    發(fā)表于 05-02 13:50

    自然語言處理怎么最快入門

    的基礎都是自然語言處理的范疇之內。二、自然語言處理怎么學?自然語言處理的實際入門步驟來說,假如單單從應用來說,我覺得還是直接先從簡單的應用搞起更好一點,上來就是理論的話可能對一些人還是
    發(fā)表于 11-28 10:02

    【推薦體驗】騰訊云自然語言處理

    `相信大家對NLP自然語言處理的技術都不陌生,它是計算機科學領域和AI領域中的一個分支,它與計算機和人類之間使用自然語言進行交互密切相關,而NLP的最終目標是使計算機能夠像人類一樣理解語言。目前
    發(fā)表于 10-09 15:28

    自然語言處理的語言模型

    自然語言處理——53 語言模型(數(shù)據平滑)
    發(fā)表于 04-16 11:11

    自然語言處理的詞性標注方法

    自然語言處理——78 詞性標注方法
    發(fā)表于 04-21 11:38

    自然語言處理筆記

    自然語言處理筆記9-哈工大 關毅
    發(fā)表于 06-04 16:34

    自然語言處理——總結、習題

    自然語言處理——79 總結、習題
    發(fā)表于 06-19 11:22

    自然語言處理66參數(shù)學習

    自然語言處理——66參數(shù)學習
    發(fā)表于 07-16 09:43

    什么是自然語言處理

    什么是自然語言處理?自然語言處理任務有哪些?自然語言處理的方法是什么?
    發(fā)表于 09-08 06:51

    自然語言處理怎么最快入門_自然語言處理知識了解

    自然語言處理就是實現(xiàn)人機間自然語言通信,實現(xiàn)自然語言理解和自然語言生成是十分困難的,造成困難的根本原因是自然語言文本和對話的各個層次上廣泛存
    發(fā)表于 12-28 17:10 ?5377次閱讀

    自然語言處理入門基礎hanlp詳解

    自然語言處理定義:自然語言處理是一門計算機科學、人工智能以及語言學的交叉學科。雖然語言只是人工智能的一部分(人工智能還包括計算機視覺等),但它是非常獨特的一部分。這個星球上有許多生物擁
    發(fā)表于 11-29 14:33 ?805次閱讀

    PyTorch教程16.4自然語言推理和數(shù)據集

    電子發(fā)燒友網站提供《PyTorch教程16.4自然語言推理和數(shù)據集.pdf》資料免費下載
    發(fā)表于 06-05 10:57 ?0次下載
    PyTorch教程16.4<b class='flag-5'>之</b><b class='flag-5'>自然語言</b>推理和數(shù)據集

    PyTorch教程16.5自然語言推理:使用注意力

    電子發(fā)燒友網站提供《PyTorch教程16.5自然語言推理:使用注意力.pdf》資料免費下載
    發(fā)表于 06-05 10:49 ?0次下載
    PyTorch教程16.5<b class='flag-5'>之</b><b class='flag-5'>自然語言</b>推理:使用注意力

    PyTorch教程16.7自然語言推理:微調BERT

    電子發(fā)燒友網站提供《PyTorch教程16.7自然語言推理:微調BERT.pdf》資料免費下載
    發(fā)表于 06-05 10:52 ?0次下載
    PyTorch教程16.7<b class='flag-5'>之</b><b class='flag-5'>自然語言</b>推理:微調BERT

    自然語言處理的概念和應用 自然語言處理屬于人工智能嗎

      自然語言處理(Natural Language Processing)是一種人工智能技術,它是研究自然語言與計算機之間的交互和通信的一門學科。自然語言處理旨在研究機器如何理解人類語言
    發(fā)表于 08-23 17:31 ?1944次閱讀
    主站蜘蛛池模板: 成人午夜大片免费看爽爽爽 | 久草视频这里只有精品 | 成人午夜性a一级毛片美女 成人午夜性视频欧美成人 成人小视频在线 | 色www 永久免费网站 | 国产特级毛片aaaaaa毛片 | 国内精品一区二区在线观看 | 天天射天天干天天色 | 亚洲毛片基地4455ww | 日操夜操天天操 | 久久黄色精品视频 | 欧美猛交xxxx免费看 | 天天久| 99久久精品费精品国产一区二 | 久久久久久久久女黄 | 狠狠狠色丁香婷婷综合久久五月 | 亚洲国产影视 | 午夜影视啪啪免费体验区深夜 | 最新国产在线播放 | 日本www在线观看 | 天天干夜夜爽 | 一区| 久久综合一| 福利视频一区二区牛牛 | 色接久久 | 天堂中文字幕在线观看 | 成人在线亚洲 | 色多多在线播放 | 免播放器av少妇影院 | 国模在线 | 手机在线黄色网址 | 一级毛片子 | aa黄色大片| 日本口工福利漫画无遮挡 | brazzers720欧美丰满 | 亚洲成年人影院 | 99色视频在线观看 | 黄色网址网站在线观看 | 中日韩欧美在线观看 | 天天射天天爱天天干 | 日韩高清成人毛片不卡 | 精品视频一区二区三区四区五区 |