近年來,預訓練語言模型(PLM)在各種下游自然語言處理任務中表現(xiàn)出卓越的性能,受益于預訓練階段的自監(jiān)督學習目標,PLM 可以有效地捕獲文本中的語法和語義,并為下游 NLP 任務提供蘊含豐富信息的語言表示。然而,傳統(tǒng)的預訓練目標并沒有對文本中的關(guān)系事實進行建模,而這些關(guān)系事實對于文本理解至關(guān)重要。
在這篇被ACL 2021主會錄用的文章中,清華大學聯(lián)合騰訊微信模式識別中心與伊利諾伊大學厄巴納香檳分校(UIUC),提出了一種新穎的對比學習框架ERICA,幫助PLM深入了解文本中的實體及實體間關(guān)系。具體來說,作者提出了兩個輔助性預訓練任務來幫助PLM更好地理解實體和實體間關(guān)系:(1)實體區(qū)分任務,給定頭實體和關(guān)系,推斷出文本中正確的尾實體;(2)關(guān)系判別任務,區(qū)分兩個關(guān)系在語義上是否接近,這在長文本情景下涉及復雜的關(guān)系推理。實驗結(jié)果表明,ERICA在不引入額外神經(jīng)網(wǎng)絡參數(shù)的前提下,僅僅對PLM進行少量的額外訓練,就可以提升典型PLM(例如BERT 和 RoBERTa)在多種自然語言理解任務上(包括關(guān)系抽取、實體類別區(qū)分、問題回答等)的性能。尤其是在低資源(low-resource)的設定下,性能的提升更加明顯。
一、問題背景
傳統(tǒng)的預訓練目標沒有對文本中的關(guān)系事實進行顯式建模,而這些關(guān)系事實對于理解文本至關(guān)重要。為了解決這個問題,一些研究人員試圖改進 PLM 的架構(gòu)、預訓練任務等,以更好地理解實體之間的關(guān)系。但是它們通常只對文本中的句子級別的單個關(guān)系進行建模,不僅忽略了長文本場景下多個實體之間的復雜關(guān)系,也忽略了對實體本身的理解,例如圖1中所展現(xiàn)的,對于長文本來說,為了讓PLM更加充分理解地單個實體,我們需要考慮該實體和其他實體之間的復雜關(guān)系;而這些復雜的關(guān)系的理解通常涉及復雜的推理鏈,往往需要綜合多個句子的信息得出結(jié)論。針對這兩個痛點,本文提出了實體區(qū)分任務和關(guān)系區(qū)分任務來增強PLM對于實體和實體間關(guān)系的理解。
二 、文檔級預訓練數(shù)據(jù)收集
ERICA的訓練依賴于大規(guī)模文檔級遠程監(jiān)督數(shù)據(jù),該數(shù)據(jù)的構(gòu)造有三個階段:首先從wikipedia中爬取文本段落,然后用命名實體識別工具(例如spacy)進行實體標注,將所有獲得的實體和wikidata中標注的實體對應上,并利用遠程監(jiān)督(distant supervision)信號獲得實體之間可能存在的關(guān)系,最終保留長度在128到512之間,含有多于4個實體,實體間多于4個遠程監(jiān)督關(guān)系的段落。注意這些遠程監(jiān)督的關(guān)系中存在大量的噪聲,而大規(guī)模的預訓練可以一定程度上實現(xiàn)降噪。作者也開源了由100萬個文檔組成的大規(guī)模遠程監(jiān)督預訓練數(shù)據(jù)。
三 、實體與實體間關(guān)系的表示
鑒于每個實體可能在段落中出現(xiàn)多次,并且每次出現(xiàn)時對應的描述(mention)可能也不一樣,作者在使用PLM對tokenize后的段落進行編碼后,取每個描述的所有token均勻池化后的結(jié)果作為該描述的表示,接著對于全文中該實體所有的描述進行第二次均勻池化,得到該實體在該文檔中的表示;對于兩個實體,它們之間的關(guān)系表示為兩個實體表示的簡單拼接。以上是最簡單的實體/實體間關(guān)系的表示方法,不需要引入額外的神經(jīng)網(wǎng)絡參數(shù)。作者在文中還探索了其它的表示方法,并驗證了所有方法相比baseline都有一致的提升。
四 、實體區(qū)分任務
實體區(qū)分任務旨在給定頭實體和關(guān)系,從當前文檔中尋找正確的尾實體。例如在上圖中,Sinaloa和Mexico具有country的遠程關(guān)系,于是作者將關(guān)系country和頭實體Sinaloa拼接在原文檔的前面作為提示(prompt),在此條件下區(qū)分正確的尾實體的任務可以在對比學習的框架下轉(zhuǎn)換成拉近頭實體和正確尾實體的實體表示的距離,推遠頭實體和文檔中其它實體(負樣本)的實體表示的距離,具體的公式如下所示:
五、關(guān)系區(qū)分任務
關(guān)系區(qū)分任務旨在區(qū)分兩個關(guān)系的表示在語義空間上的相近程度。由于作者采用文檔級而非句子級的遠程監(jiān)督,文檔中的關(guān)系區(qū)分涉及復雜的推理鏈。具體而言,作者隨機采樣多個文檔,并從每個文檔中得到多個關(guān)系表示,這些關(guān)系可能只涉及句子級別的推理,也可能涉及跨句子的復雜推理。之后基于對比學習框架,根據(jù)遠程監(jiān)督的標簽在關(guān)系空間中對不同的關(guān)系表示進行訓練,如前文所述,每個關(guān)系表示均由文檔中的兩個實體表示構(gòu)成。正樣本即具有相同遠程監(jiān)督標簽的關(guān)系表示,負樣本與此相反。作者在實驗中還發(fā)現(xiàn)進一步引入不具有遠程監(jiān)督關(guān)系的實體對作為負樣本可以進一步提升模型效果。由于進行對比訓練的兩個關(guān)系表示可能來自于多個文檔,也可能來自于單個文檔,因此文檔間/跨文檔的關(guān)系表示交互都得到了實現(xiàn)。巧妙的是,對于涉及復雜推理的關(guān)系,該方法不需要顯示地構(gòu)建推理鏈,而是“強迫”模型理解這些關(guān)系并在頂層的關(guān)系語義空間中區(qū)分這些關(guān)系。具體的公式如下所示:
為了避免災難性遺忘,作者將上述兩個任務同masked language modeling (MLM)任務一起訓練,總的訓練目標如下所示:
六、實驗結(jié)果
ERICA的訓練不需要引入除了PLM之外的任何參數(shù),并且對于任意模型均能夠適配,具體的,作者采用了兩個經(jīng)典的PLM:BERT和RoBERTa,并對其進行一定時間的post-training,最后在文檔級關(guān)系抽取、實體類別區(qū)分、問題回答等任務上進行了測試,并對比了例如CorefBERT, SpanBERT, ERNIE, MTB,CP等基線模型,驗證了ERICA框架的有效性。具體結(jié)果如下:
a) 文檔級關(guān)系抽取,模型需要區(qū)分文檔中的多個實體之間的關(guān)系,這需要PLM對實體間關(guān)系有較好的理解。
b) 實體類別區(qū)分,模型需要區(qū)分文本中的實體的具體類別,這需要PLM對實體本身有較好的理解。
c) 問題回答,作者測試了兩種常見的問題回答任務:多選問答(multi-choice QA)和抽取式問答(extractive QA)。這需要PLM對實體和實體間關(guān)系有較好的理解。
七、分析
a) 消融分析(ablation study)。作者對ERICA框架中的所有組成成分進行了細致的分析,并證明了這些組成成分對于模型整體效果的提升是缺一不可的。
b) 可視化分析。作者對經(jīng)過ERICA訓練前后的PLM對實體和實體間關(guān)系的表示進行了可視化,結(jié)果如下圖所示。通過ERICA的對比學習訓練,PLM對于同類別的實體/實體關(guān)系的表示有明顯的聚類現(xiàn)象,這充分驗證了ERICA能夠顯著增強PLM對實體和實體間關(guān)系的理解。
c) 此外,作者分析了遠程監(jiān)督關(guān)系的多樣性/預訓練文檔數(shù)量對于模型效果的提升。實驗結(jié)果發(fā)現(xiàn),更加多樣的遠程監(jiān)督關(guān)系與更大的預訓練數(shù)據(jù)集對于性能的提升有積極的作用。
d) 除了使用均勻池化的方式來獲得實體/關(guān)系表示,作者也嘗試使用entity marker的表示方法來測試模型的性能。實驗結(jié)果證明,ERICA對各種實體/關(guān)系表示方法均適用,進一步驗證了該架構(gòu)的通用性。
八、總結(jié)
在本文中,作者提出了ERICA框架,通過對比學習幫助PLM提高實體和實體間關(guān)系的理解。作者在多個自然語言理解任務上驗證了該框架的有效性,包括關(guān)系提取、實體類別區(qū)分和問題問答。實驗結(jié)果表明ERICA顯著優(yōu)于所有基線模型,尤其是在低資源的設定下,這意味著 ERICA 可以更好地幫助 PLM捕獲文本中的相關(guān)事實并綜合有關(guān)實體及其關(guān)系的信息。
責任編輯:lq6
-
PLM
+關(guān)注
關(guān)注
2文章
124瀏覽量
20910 -
實體
+關(guān)注
關(guān)注
0文章
8瀏覽量
7329
原文標題:ERICA: 提升預訓練語言模型實體與關(guān)系理解的統(tǒng)一框架
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論