2020實體關(guān)系聯(lián)合抽取一片紅海,各種SOTA方法你方唱罷我方登場,在一些數(shù)據(jù)集上也是不斷刷出新高度,為信息抽取領(lǐng)域帶來了新思路,推動了信息抽取領(lǐng)域的發(fā)展。本文梳理了實體關(guān)系聯(lián)合抽取取得SOTA的三種方法,以做總結(jié)。
先總體對三種方法做個比較:*表示Exact Matching
以下將對上面提到的三篇文章依次進行詳細(xì)解讀。
CasRel
論文:A Novel Cascade Binary Tagging Framework for Relational Triple Extraction
地址:https://arxiv.org/abs/1909.03227
arxiv訪問不方便的同學(xué)后臺回復(fù)『0016』直接獲取
2019年的時候看到蘇劍林在paperweekly上的一篇文章,闡述了其在參加百度SPO競賽中所使用的方法,這篇論文可以認(rèn)為是之前所提方法的延伸。
論文提出級聯(lián)二分標(biāo)記框架CasRel方法(a novel cascade binary tagging framework),與以往把關(guān)系看著離散標(biāo)簽不同,這里把關(guān)系看著是一個函數(shù)fr(sub)->obj,頭實體sub是自變量,尾實體obj是因變量,先抽取出頭實體,然后結(jié)合各關(guān)系類型,進一步抽取出對應(yīng)的尾實體。該方法可以解決實體關(guān)系中的EPO/SEO實體重疊問題。結(jié)合模型框架圖更好理解:
CasRel模型可以分兩部分理解:
編碼部分:采用Bert進行編碼,輸入subword embedding + position embedding
Cascade解碼(級聯(lián)解碼):先對subject實體進行抽取(subject tagger),然后對每一種關(guān)系,進一步去抽取該關(guān)系下subject所對應(yīng)的object實體(relation-specific object tagger)。
subject實體抽?。褐苯釉贐ert編碼后進行span解碼,得到實體的start和end位置,如圖示,對每個token位置做二分類,判斷是否為start位,或者是否為end位。注意:在解碼的時候,start和end配對可以采用就近原則得到實體
特定關(guān)系下的object實體抽?。航Y(jié)合上圖示,obj實體解碼類似于sub的解碼,需要注意兩點:一是對每種關(guān)系都要做obj解碼,二是obj的解碼中引入了上一步中所得到的sub實體的信息Vsub,Vsub是對sub實體中各token向量求平均。當(dāng)start_o和end_o經(jīng)過二分判斷都為0時,表示該關(guān)系下沒有對應(yīng)的obj實體,也即該sub為頭實體時不存在這個關(guān)系的三元組。
優(yōu)化目標(biāo)及模型損失函數(shù):目標(biāo)是最大化三元組抽取概率,sub和obj的抽取都是采用span方式,可采用二分交叉熵計算loss。優(yōu)化目標(biāo)公式如下:
實驗結(jié)果
在NYT和WebNLG兩個數(shù)據(jù)集上達(dá)到了SOTA,如下圖所示,即使不使用Bert進行編碼(使用LSTM)效果依然是十分顯著的。實驗同時對比了句子中不同三元組數(shù)目下的結(jié)果,以及Normal、EPO和SEO三種情況下的結(jié)果,實驗顯示CasRel方法在多三元組、EPO和SEO情況下效果提升更明顯。
總結(jié):
級聯(lián)兩個任務(wù),兩個任務(wù)獨立解碼,共享編碼,這種模型架構(gòu)也可以算到多任務(wù)學(xué)習(xí)的范疇,模型先抽取出sub實體,再在各個relation下去抽sub實體對應(yīng)的obj實體,把relation看成函數(shù),模型整體架構(gòu)很清晰,特別是在relation緯度上做堆疊,打開了關(guān)系抽取的新思路。
TPLinker
論文:TPLinker: Single-stage Joint Extraction of Entities and Relations Through Token Pair Linking
地址:https://arxiv.org/abs/2010.13415
arxiv訪問不方便的同學(xué)后臺回復(fù)『0017』直接獲取
這篇文章提出TPLinker方法(Token Pair Linking)能夠end2end對實體及實體關(guān)系三元組進行聯(lián)合抽取,可解決實體關(guān)系抽取中的SEO、EPO、實體嵌套等問題。其設(shè)計了一種很巧妙的數(shù)據(jù)標(biāo)注方式,被稱為Handshaking tagging scheme,這種標(biāo)注統(tǒng)一了實體及實體關(guān)系的信息,同時避免了以往其他方法中普遍存在的標(biāo)簽曝光偏差問題(exposure bias)(訓(xùn)練階段標(biāo)簽使用ground true,推斷階段標(biāo)簽使用predict tag)。
Handshaking tagging scheme:個人感覺文中所給圖示(下圖)其實不太好理解,從具體例子出發(fā)會更方便理解的。
為長度為n的句子,構(gòu)造nxn的矩陣M,行、列分別對應(yīng)著句子中的token,針對句子中的實體及實體關(guān)系設(shè)計三種標(biāo)注方式:
entity head to entity tail (EH-to-ET):對每個實體,將它的頭token(行)對應(yīng)的尾token(列)位置標(biāo)記為1,反應(yīng)在M的上三角上,如所給例子實體:New York City ==> M(New, City) = 1, De Blasio ==> M(De, Blasio) =1,上圖中紫色背景。
subject head to object head (SH-to-OH):對每個關(guān)系下的實體對,將首實體(sub)的頭token(行)對應(yīng)到尾實體(obj)的頭token(列),如所給例子關(guān)系mayor實體對:(New York City, De Blasio) ==> M(New, De),上圖中紅色背景。
subject tail to object tail (ST-to-OT): 對每個關(guān)系下的實體對,將首實體(sub)的尾token(行)對應(yīng)到尾實體(obj)的尾token(列),如所給例子關(guān)系mayor實體對:(New York City, De Blasio) ==> M(City, Blasio),上圖中藍(lán)色背景。
注意:EH-to-ET只會存在M的上三角,而SH-to-OH和ST-to-OT是上下三角都會存在的,為了節(jié)省存儲資源,同時減少目標(biāo)tag的稀疏性(還是很稀疏),將M的下三角映射到上三角上,值設(shè)置為2。(考慮上三角映射的位置上會不會不為0呢,是會存在這種可能的,但現(xiàn)實中概率很低,如triple (ABC, R, CDE)和(CDE, R, BC))
上面將三元組中的實體信息映射到矩陣上三角,然后將其展平為標(biāo)記序列,可以得到序列的長度為n*(n+1)/2。如果有N中關(guān)系,則經(jīng)過Handshaking tagging后,得到2N+1個標(biāo)記序列。
解碼方式:
先不用去看下面所給的解碼圖示,考慮上面講到的Handshaking tagging作為模型的預(yù)測目標(biāo),實際上是2N+1個n*n的矩陣,矩陣的元素為句子各token對的關(guān)系,其值為0、1、2。其中一個矩陣標(biāo)記了實體EH-to-ET,N個矩陣標(biāo)記了SH-to-OH,N個矩陣標(biāo)記了ST-to-OT。文章給出了一個解碼的算法流程,不再貼出,簡述過程如下:
解碼EH-to-ET可以得到句子中所有的實體,用實體頭token idx作為key,實體作為value,存入字典D中
對每種關(guān)系r,解碼ST-to-OT得到token對存入集合E中,解碼SH-to-OH得到token對并在D中關(guān)聯(lián)其token idx的實體value
對上一步中得到的SH-to-OH token對的所有實體value對,在集合E中依次查詢是否其尾token對在E中,進而可以得到三元組信息。
相關(guān)公式:
模型編碼可以是LSTM也可以是Bert,Token Pair表示為公式(1),Handshaking Tagger可以看著是多分類,公式為(2),損失函數(shù)定義為公式(4):
實驗結(jié)果:
同樣在NYT和WebNLG兩個數(shù)據(jù)集上進行實驗,延續(xù)CasRel的實驗結(jié)果,TPLinker方法達(dá)到了新的SOTA,同時通過進一步細(xì)化實驗分析得到以下結(jié)論:
句子中triple數(shù)目大于5的時候,TPLinker方法優(yōu)勢更加明顯
在實體關(guān)系標(biāo)注中只標(biāo)注實體尾token,和標(biāo)注實體span相比,并沒有簡化問題
得益于解碼的高效性,TPLinker推斷性能相對于CasRel有極大提升
總結(jié):
創(chuàng)新性地提出了Handshaking tagging方式,統(tǒng)一了實體與實體關(guān)系信息,使得模型能夠一次解碼得到三元組信息
能夠解決實體關(guān)系中的實體重疊EPO、SEO問題,受益于EH-to-ET標(biāo)記,模型同時能夠解決嵌套實體問題
end2end得到實體及實體關(guān)系,避免了標(biāo)簽暴露偏差的問題
SPN4RE
論文:Joint Entity and Relation Extraction with Set Prediction Networks
地址:https://arxiv.org/abs/2011.01675
arxiv訪問不方便的同學(xué)后臺回復(fù)『0018』直接獲取
這篇文章出至中科院劉康老師團隊,是目前NYT和WebNLG數(shù)據(jù)集上的最新SOTA。論文將實體關(guān)系聯(lián)合抽取歸納為三種范式,分別為:
end2end抽取實體及關(guān)系(as table filling problem),編碼層共享參數(shù),解碼層獨立解碼
轉(zhuǎn)化為序列標(biāo)注問題,需要設(shè)計復(fù)雜的tagging scheme,即每個tag需要同時表示實體及關(guān)系的信息(之前的方案無法應(yīng)對嵌套、重疊實體)
轉(zhuǎn)化為seq2seq問題,解碼時生成三元組(多次生成可解決嵌套、重疊實體(autoregressive decoder and cross-entropy loss))
實際上,第一種也可以看著是多任務(wù)學(xué)習(xí),第二種在TPLinker方法中已經(jīng)比較好地解決了實體重疊和嵌套問題,論文認(rèn)為所提出的SPN4RE屬于seq2seq范疇,通讀下來筆者竊以為也可將SPN4RE歸為實體關(guān)系聯(lián)合抽取中的多任務(wù)學(xué)習(xí)。
論文的初衷是在以往使用seq2seq解決實體關(guān)系三元組時,面臨三元組生成順序?qū)Y(jié)果產(chǎn)生影響,所以從生成順序無關(guān)三元組、并行生成三元組集合出發(fā)提出新的模型SPN。
SPN(set prediction networks)包含了三個部分:
句子編碼:采用預(yù)訓(xùn)練語言模型Bert,BPE編碼輸入
三元組集合生成:基于transformer的非自回歸解碼NAT(transformer-based non-autoregressive decoder)
并行產(chǎn)生三元組,產(chǎn)生三元組順序無關(guān),加速解碼,NAT結(jié)構(gòu)使用到了雙向信息
NAT條件概率公式:j!=i說明第j個triple和其他triple也是有關(guān)系的,n為三元組個數(shù),本文設(shè)置為常數(shù)m
基于集合的Loss設(shè)計:二部圖匹配損失函數(shù)(bipartite matching loss function)
NAT結(jié)構(gòu)解碼:
輸入m表示要解碼的triple個數(shù),N個transformer層,每層先是各triple間做self-attention,然后是和sentence的編碼做inter-attention,輸出解碼向量為Hd,其為m*d緯度
關(guān)系預(yù)測:對每個hd過FFN經(jīng)過softmax,預(yù)測「關(guān)系」,關(guān)系數(shù)量為總關(guān)系量+1(包含了null),公示如下:
關(guān)系首尾實體預(yù)測:類似與對sentence做span,融合了sentence編碼和對應(yīng)關(guān)系的編碼,公式如下:
二部圖匹配損失函數(shù)(Bipartite Matching Loss):在預(yù)測的三元組集合和ground true三元組集合間計算loss
兩個集合的元素進行最優(yōu)匹配:預(yù)測的集合大小為m,如果ground true集合小于m則補充null至大小為m。尋找最優(yōu)匹配的過程,實際上相當(dāng)于對m個人分配m個任務(wù),第i個人做第j個任務(wù)的代價為Cij,尋找最優(yōu)方式將這m個任務(wù)分配給m個人,使得總代價最小,這就是二部圖匹配問題,可以利用匈牙利算法求解,時間復(fù)雜度為O(m^3)。本文定義代價函數(shù)如下:
損失函數(shù)定義:對最優(yōu)匹配得到的m個三元組對計算loss,注意,如果「關(guān)系」為null,則關(guān)系中的頭尾實體不參與loss計算,Loss函數(shù)定義如下:
實驗結(jié)果:
在NYT和WebNLG數(shù)據(jù)集上進行實驗,結(jié)果如下圖,提出并回答了以下四個問題:
聯(lián)合抽取模型SPN的整體性能如何:對比CasRel F1在NYT上提升2.9%,在 WebNLG上提升1.6%(圖略)
模型中每個設(shè)計對結(jié)果的影響:通過消融實驗,對比了交叉熵loss和二部圖匹配loss,以及非自回歸解碼層數(shù)對結(jié)果的影響,得到了NAT層數(shù)為3時最優(yōu),二部圖匹配Loss優(yōu)于交叉熵Loss(圖略)
數(shù)據(jù)中存在不同數(shù)量的三元組對性能的影響:數(shù)據(jù)中三元組數(shù)量越多(信息越復(fù)雜),對比其他方法SPN的效果越顯著(圖略)
該方法在解決重疊模式問題上性能如何(EPO, SEO):和其他方法對比了Normal、SEO、EPO三種triple類型下效果,結(jié)論同上一條一致,在復(fù)雜問題上(SEO, EPO),相比與其他方法SPN效果顯著(圖略)
總結(jié):
對NAT解碼的結(jié)果做關(guān)系預(yù)測,可看著是分類問題,然后將解碼結(jié)果進一步融合編碼信息對句子做實體抽取,可看著實體span解碼過程,所以筆者認(rèn)為該方法也屬于聯(lián)合抽取中的多任務(wù)學(xué)習(xí)
采用二部圖匹配,尋找最優(yōu)三元組匹配的過程復(fù)雜度O(m^3),先匹配再計算Loss為集合緯度的Loss計算提供了參考。
以上對實體關(guān)系聯(lián)合抽取三篇SOTA文章進行了分析解讀,在實際的工作當(dāng)中,我們也已經(jīng)將CasRel方法進行落地實踐,并取得了一定的效果。在實體抽取任務(wù)中,也可以借鑒TPLinker的標(biāo)記方法,解決嵌套實體問題。SPN作為最新的SOTA,其所涉及的NAT解碼和在集合緯度上的Loss計算也值得借鑒參考。
責(zé)任編輯:xj
原文標(biāo)題:SOTA集結(jié),2020登頂關(guān)系抽取的3篇佳作
文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5521瀏覽量
121647 -
自然語言
+關(guān)注
關(guān)注
1文章
291瀏覽量
13410 -
nlp
+關(guān)注
關(guān)注
1文章
489瀏覽量
22125
原文標(biāo)題:SOTA集結(jié),2020登頂關(guān)系抽取的3篇佳作
文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
FPGA頻率測量的三種方法
![FPGA頻率測量的<b class='flag-5'>三種方法</b>](https://file1.elecfans.com/web3/M00/05/5E/wKgZO2d_KMWAdJQqAAAQGss4Fmo827.png)
Mamba入局圖像復(fù)原,達(dá)成新SOTA
![Mamba入局圖像復(fù)原,達(dá)成新<b class='flag-5'>SOTA</b>](https://file1.elecfans.com/web3/M00/04/4F/wKgZPGdyceiANtEGAAAxfMeFLDo470.png)
三種常見平方根算法的電路設(shè)計及Verilog實現(xiàn)與仿真
![<b class='flag-5'>三種</b>常見平方根算法的電路設(shè)計及Verilog實現(xiàn)與仿真](https://file1.elecfans.com/web2/M00/0D/46/wKgaomdFLyuAOwHiAAADKdNW0M4970.png)
三相異步電動機三種調(diào)速方法
mosfet的三種工作狀態(tài)及工作條件是什么
光纖測試方法有哪三種
單片機的三種總線結(jié)構(gòu)
NPN型晶體管三種狀態(tài)判斷方法
MCUXpresso IDE下在線聯(lián)合調(diào)試雙核MCU工程的三種方法
![MCUXpresso IDE下在線<b class='flag-5'>聯(lián)合</b>調(diào)試雙核MCU工程的<b class='flag-5'>三種方法</b>](https://file1.elecfans.com/web2/M00/01/47/wKgZoma0cXeABzT3AAA1KoC8H4g757.png)
評論