在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖模型在方面級情感分析任務(wù)中的應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:吳焜 ? 2022-11-24 10:20 ? 次閱讀

引言

方面級情感分析(Aspect-based Sentiment Analysis, ABSA)是一項細(xì)粒度的情感分析任務(wù),主要針對句子級別的文本,分析文本中相關(guān)的方面項(Aspect Term)、觀點項(Opinion Term)、方面類別(Aspect Category)和情感極性(Sentiment Polarity),在不同的場景下對應(yīng)著不同的子任務(wù)。

本次Fudan DISC實驗室將分享ACL 2022中關(guān)于方面級情感分析的三篇論文,其中兩篇介紹基于圖模型的方面級情感分析研究,一篇介紹用生成的方法進行ABSA的相關(guān)研究。

文章概覽

BiSyn-GAT+: 用于方面級情感分析的雙重語法感知圖注意網(wǎng)絡(luò)(BiSyn-GAT+: Bi-Syntax Aware Graph Attention Network for Aspect-based Sentiment Analysis)

論文地址:https://aclanthology.org/2022.findings-acl.144.pdf

該篇文章提出了一種雙語法感知圖注意網(wǎng)絡(luò)(BiSyn-GAT+),利用句子的短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹來建模每個方面詞的情感感知上下文(稱為上下文內(nèi))和跨方面的情感關(guān)系(稱為上下文間) 信息,首次在ABSA任務(wù)中引入了句子的短語結(jié)構(gòu)樹的語法信息,四個基準(zhǔn)數(shù)據(jù)集的實驗表明,BiSyn-GAT+ 始終優(yōu)于最先進的方法。

用于方面情感三元組提取的增強多通道圖卷積網(wǎng)絡(luò)(Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction)

論文地址:https://aclanthology.org/2022.acl-long.212.pdf

該篇文章旨在抽取句子中的情感三元組,提出了一個增強多通道圖卷積網(wǎng)絡(luò)模型來充分利用單詞之間的關(guān)系。該模型為 ASTE 任務(wù)定義了 10 種類型的關(guān)系,通過將單詞和關(guān)系鄰接張量分別視為節(jié)點和邊,將句子轉(zhuǎn)換為多通道圖,從而學(xué)習(xí)關(guān)系感知節(jié)點表示,同時設(shè)計了一種有效的詞對表示細(xì)化策略,顯著提高了模型的有效性和魯棒性。

Seq2Path:生成情感元組作為樹的路徑(Seq2Path: Generating Sentiment Tuples as Paths of a Tree)

該篇文章提出了 Seq2Path 來生成情感元組作為樹的路徑,通過生成的方法來解決ABSA中的多種子任務(wù)。樹結(jié)構(gòu)可以用于表示“1對n”的關(guān)系,并且樹的路徑是獨立的并且沒有順序。通過引入額外的判別標(biāo)記并應(yīng)用數(shù)據(jù)增強技術(shù),可以自動選擇有效路徑,從而解決ABSA中常見的五類子任務(wù)。

論文細(xì)節(jié)

5b415d3c-3d84-11ed-9e49-dac502259ad0.png

動機

該篇文章中的ABSA旨在識別句子中給定方面的情感極性。之前的許多工作主要是用有注意力機制的RNN、CNN提取序列特征,這些模型通常假設(shè)更接近目標(biāo)方面詞的單詞更可能與其情緒相關(guān)。但這種假設(shè)很可能并不成立,在圖1中可以看到,“service”更接近“great”而不是“dreadful”,所以這些方法可能會錯誤地將不相關(guān)的意見詞“great”分配給“service”,導(dǎo)致情感判斷錯誤。

5cca11c6-3d84-11ed-9e49-dac502259ad0.png

近期的工作主要研究如何通過GNN利用依存結(jié)構(gòu)樹等非序列信息來建模方面詞,然而依存結(jié)構(gòu)樹的固有性質(zhì)可能會引入噪聲,如圖 2中“great”和“dreadful”之間的“conj”關(guān)系,conjunct表示連接兩個并列的詞,這可能會影響到對great和dreadful的建模,即上下文內(nèi)建模,此外,依存結(jié)構(gòu)樹僅僅揭示了單詞之間的關(guān)系,因此在大多數(shù)情況下無法模擬句子間的復(fù)雜關(guān)系,例如條件、協(xié)同、反義等關(guān)系,也就無法捕捉方面詞之間的情感關(guān)系,即上下文間建模。

5cfda2fc-3d84-11ed-9e49-dac502259ad0.png

基于以上的兩個發(fā)現(xiàn),在本文中,作者考慮利用短語結(jié)構(gòu)樹的句法信息來解決這兩個問題。短語結(jié)構(gòu)樹中通常包含短語分割和分層組合結(jié)構(gòu),有助于正確對齊方面和表示方面情感的單詞。前者可以自然地將一個復(fù)雜的句子分成多個子句,后者可以區(qū)分方面詞之間的不同關(guān)系來推斷不同方面之間的情感關(guān)系。

如圖 3 所示,“but”等短語分割詞可以很自然地將原句切分為兩個子句,同時,在Layer-1中,“and”可以體現(xiàn)出“service”和“environment”的協(xié)同關(guān)系,而Layer-3中的“but”可以體現(xiàn)出“food”和“service”或“environment”之間的反義關(guān)系。

5d60c436-3d84-11ed-9e49-dac502259ad0.png

任務(wù)定義

在給定方面詞,判斷情感極性的設(shè)定中,表示長度為的句子,表示預(yù)定義的方面詞集合。對于每個句子,表示句子中包含的方面詞,任務(wù)目標(biāo)就是輸入句子和句子中的若干方面詞,得到每一個對應(yīng)的情感極性。

模型

本文提出的模型如圖4所示:

5d96c5f4-3d84-11ed-9e49-dac502259ad0.png

該模型以句子和文本中出現(xiàn)的所有方面詞作為輸入,輸出方面詞的預(yù)測情感。其中一共包含三個組件:

一是上下文內(nèi)模塊(Intra-Context Module),對輸入文本進行編碼以獲得針對目標(biāo)方面詞的方面特定表示,其中包含兩個編碼器,分別是上下文編碼器和利用短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹中句法信息的句法編碼器。

二是上下文間模塊(Inter-Context Module),其中包含一個關(guān)系編碼器,用于從構(gòu)建的方面-上下文圖中得到關(guān)系增強的表示,方面-上下文圖是由給定句子的所有方面詞以及短語分割項組成,短語分割項是通過規(guī)則方法從短語構(gòu)成樹中得到的。

三是情感分類器,綜合利用上述兩個模塊的輸出表示預(yù)測情感。

1. 上下文內(nèi)模塊

上下文內(nèi)模塊利用上下文編碼器和句法編碼器對每個方面詞的情感感知上下文進行建模,并為每個目標(biāo)方面詞生成方面特定表示。對于多方面詞的句子將多次使用此模塊,每次處理一個目標(biāo)方面詞。

上下文編碼器利用BERT進行編碼,輸入序列如式1所示,經(jīng)過BERT可以得到如式2所示的文本表示,由于BERT分詞后每個單詞可能被拆分為多個子詞,因此通過式3對多個子詞的表示取平均,得到每個單詞對應(yīng)的文本表示。句法編碼器由幾個分層圖注意力塊堆疊而成,每個塊中由多個圖注意力層組成,這些層在短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹上對句法信息進行分層編碼,關(guān)鍵在于圖的構(gòu)建。

5df2a9c8-3d84-11ed-9e49-dac502259ad0.png

5e32b5fe-3d84-11ed-9e49-dac502259ad0.png

5ea6504a-3d84-11ed-9e49-dac502259ad0.png

根據(jù)短語結(jié)構(gòu)樹的句法結(jié)構(gòu),本文以自底向上的方式進行編碼,短語結(jié)構(gòu)樹的每一層由組成輸入文本的幾個短語組成,每個短語代表一個獨立的語義單元。

例如,圖3中的就是{The food is great, but, the service and the environment are dreadful},根據(jù)這些短語,可以通過式4構(gòu)造顯示單詞連接的鄰接矩陣CA,如果兩個單詞在該層的同一短語中,則矩陣對應(yīng)位置為1,否則為0。具體的模塊圖如圖5所示,左邊這一列就是得到的鄰接矩陣CA。

5ebe83cc-3d84-11ed-9e49-dac502259ad0.png

5ee0b5c8-3d84-11ed-9e49-dac502259ad0.png

接著介紹 HGAT 塊,一個 HGAT 塊由幾個 GAT 層堆疊,這些 GAT 層利用掩碼自注意力機制聚合來自鄰居的信息,并使用全連接層將表示映射到相同的語義空間。注意力機制可以分配給具有更多相關(guān)詞的鄰居更高的權(quán)重。其表示如式 5,6,7 所示,其中表示第層中的鄰居集合,是衡量兩個詞相關(guān)性的評分函數(shù),式 7 就是將層中兩個詞之間的相關(guān)性進行歸一化得到第 l 層中使用的權(quán)重,式 6 中的是經(jīng)過掩碼自注意機制后的表示。

||表示向量連接。是注意力頭的數(shù)量。是第層中的最終表示,式 5 就是將層中的最終表示和層中經(jīng)過掩碼自注意機制后的表示拼接起來再過一個全連接層。堆疊的 HGAT 塊將前一層塊的輸出作為輸入,第一個 HGAT 塊的輸入是式 3 中得到的。

5f1bb4a2-3d84-11ed-9e49-dac502259ad0.png

本文還探索了結(jié)構(gòu)和依存兩種句法信息的融合,可以將依存結(jié)構(gòu)樹視為無向圖并構(gòu)造鄰接矩陣 DA,如果兩個詞在依存結(jié)構(gòu)樹中直接連接,那矩陣中的元素為1,否則為0。通過逐位點乘、逐位相加和條件逐位相加三種方式拼接兩個矩陣信息。最終上下文內(nèi)模塊的輸出如式12所示,包含了上下文信息和句法信息。

5f5517a6-3d84-11ed-9e49-dac502259ad0.png

2. 上下文間模塊

上下文內(nèi)模塊中沒有考慮方面詞之間的相互影響。因此,在上下文間模塊中,本文構(gòu)建了一個方面-上下文圖來對各方面詞之間的關(guān)系建模。該模塊僅適用于多方面詞句子,將來自上下文內(nèi)模塊的所有方面詞的方面特定表示作為輸入,并輸出每個方面詞的關(guān)系增強表示。

方面詞之間的關(guān)系可以通過一些短語分割詞來表示,比如連詞。因此,本文設(shè)計了一個基于規(guī)則的映射函數(shù) PS,可以返回兩個方面詞的短語分割詞。具體來說,給定兩個方面詞,PS函數(shù)首先在短語結(jié)構(gòu)樹中找到它們的最近共同祖先(LCA),它包含兩個方面詞的信息并且具有最少的無關(guān)的上下文。我們將來自 LCA 的,在兩個方面分開的子樹之間的分支,稱為“Inner branches”。PS函數(shù)就會返回“Inner branches”中的所有文本詞。否則將返回輸入文本中兩個方面詞之間的單詞。在圖3中,給定方面詞food和service,LCA節(jié)點是第四層中的S,具有三個分支,此時的inner branch就是中間的but,反映兩個方面詞之間的情感關(guān)系。

5f83db72-3d84-11ed-9e49-dac502259ad0.png

在方面上下文圖構(gòu)建中,本文認(rèn)為一個方面詞的影響范圍應(yīng)該是連續(xù)的,方面詞之間的相互影響會隨著距離增加而衰減,考慮所有方面對會引入由長距離引起的噪聲并增加計算開銷,所以本文只對相鄰的方面詞之間的關(guān)系進行建模。在通過 PS 函數(shù)得到相鄰方面詞之間的短語分割詞后,本文通過將方面詞與相應(yīng)的短語分割詞相連接以構(gòu)建方面上下文圖。為區(qū)分方面上下文之間的雙向關(guān)系,本文構(gòu)建了兩個對應(yīng)的鄰接矩陣。第一個處理句子中所有奇數(shù)索引方面詞到相鄰的偶數(shù)索引方面詞的影響,第二個反之。用之前從上下文內(nèi)模塊中學(xué)到的和經(jīng)過BERT編碼的短語分割詞為輸入,將上述介紹的HGAT塊作為關(guān)系編碼器,輸出為每個方面詞對應(yīng)的關(guān)系增強表示。

5fa2b362-3d84-11ed-9e49-dac502259ad0.png

將上下文內(nèi)模塊和上下文間模塊的輸出組合起來形成最終表示,然后將其送入全連接層,即情感分類器中,得到三種情感極性的概率。損失函數(shù)就是情感標(biāo)簽和預(yù)測結(jié)果之間的交叉熵?fù)p失。

5fcbe23c-3d84-11ed-9e49-dac502259ad0.png

5ffb01b6-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

本文的實驗在四個英文數(shù)據(jù)集上進行,分別是SemEval2014的laptop、restaurant和MAMS、Twitter數(shù)據(jù)集。其中l(wèi)aptop和restaurant數(shù)據(jù)集中的句子有包含多方面詞的,也有包含單方面詞的。MAMS 中的每個句子至少包含兩個不同情感的方面詞。Twitter中的句子只包含一個方面詞。數(shù)據(jù)集統(tǒng)計數(shù)據(jù)如表 1 所示。

601a34d2-3d84-11ed-9e49-dac502259ad0.png

解析器使用SuPar,利用CRF constituency parser (Zhang et al., 2020)得到短語結(jié)構(gòu)樹,利用deep Biaffine Parser (Dozat and Manning, 2017)得到依存結(jié)構(gòu)樹。

Baseline一共分為三組,分別是無句法信息的基線模型,有句法信息的基線模型和建模了方面詞之間關(guān)系的基線模型。

606197a0-3d84-11ed-9e49-dac502259ad0.png

最終的實驗結(jié)果如表2所示,本文的完整模型有一個加號,沒有加號的是去掉上下文間模塊后的模型。本文提出的模型要優(yōu)于所有基線模型。具有句法信息的模型要優(yōu)于沒有句法信息的模型,本文的模型優(yōu)于僅使用依賴信息的模型,說明組成樹可以提供有用的信息。從最后兩行的比較中可以看出,建模方面詞之間的關(guān)系可以顯著提高性能。

60b36e04-3d84-11ed-9e49-dac502259ad0.png

此外,作者還做了許多消融實驗,探索了模型中各個模塊的作用,比較了不同解析器帶來的影響和不同的方面上下文圖構(gòu)建方式帶來的影響,最終的結(jié)果就是每個模塊都有其用處,把各類模塊都加上得到的結(jié)果才是最優(yōu)的。

2

60fcb2e4-3d84-11ed-9e49-dac502259ad0.png

動機

情感三元組抽取任務(wù)旨在從句子中提取方面情感三元組,每個三元組包含三個元素,即方面詞、觀點詞以及對應(yīng)情感。如圖1所示,藍(lán)色代表方面詞,黃色代表觀點詞,紅色和綠色表示情感,輸入為句子,期待的輸出為下面的三元組。先前的方法主要為Pipeline方法,或者將其建模為多輪閱讀理解任務(wù),再或者通過新的標(biāo)注方案進行聯(lián)合抽取來解決。盡管之前的工作取得了顯著成果,但仍然存在一些挑戰(zhàn)。

在ASTE任務(wù)中,很自然地會面臨兩個問題,一是如何利用單詞之間的各種關(guān)系來幫助 ASTE 任務(wù),詞對(“food”,“delicious”),“food”是“delicious”的觀點目標(biāo),被賦予了積極的情感極性,需要基于單詞之間的關(guān)系來學(xué)習(xí)任務(wù)相關(guān)的單詞表示。二是如何利用語言特征來幫助 ASTE 任務(wù),可以觀察到方面詞通常是名詞,觀點詞通常是形容詞,因此名詞和形容詞組成的詞對往往形成方面-觀點對,從句法依存樹的角度觀察,food是delicious的名詞性主語,依存類型為nsubj,說明不同的依存類型可以幫助方面詞、觀點詞的抽取和匹配。基于以上兩點觀察,本文提出了一種增強多通道圖卷積網(wǎng)絡(luò)模型來解決上述問題,設(shè)計了十種單詞關(guān)系來建模單詞之間的關(guān)系概率分布,充分利用了四種語言特征并細(xì)化詞對表示。

61441616-3d84-11ed-9e49-dac502259ad0.png

任務(wù)定義

給定一個輸入句子,包含個單詞,目標(biāo)是從中抽取出一批三元組,其中和分別表示方面項和意見項,表示情感極性。

除了任務(wù)形式定義,本文為 ASTE 定義了句子中單詞之間的十種關(guān)系,如表1所示。

61896acc-3d84-11ed-9e49-dac502259ad0.png

與前人的工作相比,本文定義的關(guān)系引入了更準(zhǔn)確的邊界信息,其中的四個關(guān)系或標(biāo)簽 {B-A, I-A, B-O, I-O} 旨在提取方面詞和意見詞,B 和 I 分別表示術(shù)語的開頭和內(nèi)部。A 和 O 子標(biāo)簽旨在確定詞語的作用,即為方面詞或意見詞。表 1 中的 A 和 O 關(guān)系用于檢測由兩個不同的詞組成的詞對是否分別屬于同一個方面或意見詞。三個情感關(guān)系檢測詞對是否匹配,同時判斷了詞對的情感極性,可以使用表格填充的方法構(gòu)建關(guān)系表,圖3就是一個例子,每個單元格對應(yīng)一個具有關(guān)系的詞對。

61f3a932-3d84-11ed-9e49-dac502259ad0.png

在得到表格后需要對其進行解碼,ASTE 任務(wù)的解碼細(xì)節(jié)如算法1所示。為簡單起見,此處使用上三角表來解碼三元組,因為是標(biāo)準(zhǔn)情況下關(guān)系是對稱的。首先僅使用基于主對角線的所有詞對之間的預(yù)測關(guān)系來提取方面詞和觀點詞。其次,需要判斷提取的方面詞和觀點詞是否匹配。具體來說,對于方面項和意見項,我們計算所有單詞對的預(yù)測關(guān)系,其中和。如果預(yù)測關(guān)系中存在任何情感關(guān)系,則認(rèn)為方面詞和觀點詞是配對的,否則這兩個不配對。最后,為了判斷方面-觀點對的情感極性,將預(yù)測最多的情感關(guān)系視為情感極性。經(jīng)過這樣的流程,可以收集到一個三元組。

62381ad6-3d84-11ed-9e49-dac502259ad0.png

模型

接著介紹一下本文提出的模型架構(gòu)。首先利用BERT編碼輸入,接著利用一個biaffine attention模塊來對句子中單詞之間的關(guān)系概率分布進行建模,并使用一個向量來表示它。接著每種關(guān)系對應(yīng)一個通道,形成一個多通道的GCN模型,同時,為增強模型,為每個詞對引入了四種類型的語言特征,并對biaffine 模塊中獲得的鄰接張量添加約束,最后利用方面和意見提取的隱含結(jié)果精煉詞對表示并進行分類。

6261919a-3d84-11ed-9e49-dac502259ad0.png

1.輸入與編碼層 & 雙仿射注意模塊

在輸入與編碼層,利用BERT 作為句子編碼器來提取隱藏上下文表示。接著利用Biaffine Attention模塊來捕獲句子中每個詞對的關(guān)系概率分布,其過程如式1234所示。經(jīng)過BERT后的隱藏上下文表示經(jīng)過兩個MLP層分別得到和,通過式3得到表示,其中的、和是可訓(xùn)練的權(quán)重和偏差,中間的加號表示連接。表示詞對的第個關(guān)系類型的分?jǐn)?shù),這里就是做了一個歸一化。鄰接張量就是上面這個過程的矩陣化表示,其形狀為,為關(guān)系類型的數(shù)量,每個通道就對應(yīng)著一個關(guān)系類型。

62a159b0-3d84-11ed-9e49-dac502259ad0.png

2. 多通道GCN

多通道的GCN模型則是沿著每個通道為Biaffine Attention 模塊得到的中的每個節(jié)點聚合信息。表示的第個通道切片,和是可學(xué)習(xí)的權(quán)重和偏差。是激活函數(shù)。是平均池化函數(shù),可以將所有通道的隱藏節(jié)點表示聚合起來。

62cf9d0c-3d84-11ed-9e49-dac502259ad0.png

3. 語言特征

為增強EMC-GCN 模型,本文為每個詞對引入了四種類型的語言特征,如圖 4 所示,包括詞性組合、句法依賴類型、基于樹的距離和相對位置距離。對于句法依賴類型,需要為每個詞對添加一個自依賴類型。一開始隨機初始化這四個鄰接張量,以以句法依賴類型特征為例,如果和之間存在依賴弧,并且依賴類型為 nsubj,則通過一個可訓(xùn)練的嵌入查找表,將初始化為 nsubj 的嵌入,否則用維零向量進行初始化。隨后,使用這些鄰接張量重復(fù)圖卷積操作以獲得節(jié)點表示、、和,最后分別將平均池化函數(shù)和連接操作應(yīng)用于所有節(jié)點表示和所有邊。

62eb64ba-3d84-11ed-9e49-dac502259ad0.png

632bbd9e-3d84-11ed-9e49-dac502259ad0.png

4.關(guān)系損失 & 細(xì)化策略

為了精確捕捉單詞之間的關(guān)系,我們對從 biaffine 模塊獲得的鄰接張量添加了一個損失,同樣,對語言特征產(chǎn)生的四個其他鄰接張量也添加了約束損失。

637823dc-3d84-11ed-9e49-dac502259ad0.png

為了獲得用于標(biāo)簽預(yù)測的詞對的表示,我們將它們的節(jié)點表示、和它們的邊表示連接起來。受多標(biāo)簽分類任務(wù)中的分類器鏈方法啟發(fā),在判斷詞對是否匹配時又引入了方面和意見提取的隱含結(jié)果,具體來說,假設(shè)是方面詞,是意見詞,那么詞對更有可能被預(yù)測為情感關(guān)系,因此引入了和來細(xì)化詞對的表示。最后將詞對表示輸入線性層,然后使用 softmax 函數(shù)生成標(biāo)簽概率分布。

63b5b3be-3d84-11ed-9e49-dac502259ad0.png

63d56b28-3d84-11ed-9e49-dac502259ad0.png

訓(xùn)練時的損失函數(shù)如式13所示,其中的是用于ASTE任務(wù)的標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù),如式14所示,系數(shù)和用于調(diào)整對應(yīng)關(guān)系約束損失的影響。

6401ec0c-3d84-11ed-9e49-dac502259ad0.png

642a1510-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

本文實驗的數(shù)據(jù)集也是在SemEval挑戰(zhàn)賽的數(shù)據(jù)集基礎(chǔ)上,D1由[Wu et al. (2020a)],D2由[Xu et al. (2020)]做了進一步的標(biāo)注,這兩組數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)如表2所示。

644f853e-3d84-11ed-9e49-dac502259ad0.png

本文實驗比較的基線模型主要流水線模型、一些端到端方法的模型和基于機器閱讀理解的模型。

649b054a-3d84-11ed-9e49-dac502259ad0.png

在 F1 指標(biāo)下,EMC-GCN 模型在兩組數(shù)據(jù)集上優(yōu)于所有其他方法。端到端和基于 MRC 的方法比流水線方法取得了更顯著的改進,因為它們建立了這些子任務(wù)之間的相關(guān)性,并通過聯(lián)合訓(xùn)練多個子任務(wù)來緩解錯誤傳播的問題。

64c448ba-3d84-11ed-9e49-dac502259ad0.png

650ffc6a-3d84-11ed-9e49-dac502259ad0.png

此外,文章還進行了一些消融實驗分析,實驗發(fā)現(xiàn)提出的十種關(guān)系和細(xì)化策略都對性能提升有幫助。作者通過可視化通道信息和語言特征信息,發(fā)現(xiàn)這些模塊都如預(yù)期一樣有效,有助于傳遞詞之間的信息,通過樣例分析對比其他模型,發(fā)現(xiàn)EMC-GCN模型可以更好地提取句子中的情感三元組。

3

6543d238-3d84-11ed-9e49-dac502259ad0.png

動機

在本文中,作者以 ASTE 為默認(rèn)任務(wù)來說明想法。ABSA任務(wù)方面最近的趨勢是設(shè)計一個統(tǒng)一的框架來同時處理多個 ABSA 任務(wù),而不是為每個 ABSA 任務(wù)使用單獨的模型,如Seq2Seq 模型已被充分應(yīng)用到其中。輸入文本后,輸出是一系列情感元組,但這種設(shè)計仍存在兩種問題,一是順序,元組之間的順序并不自然存在,二是依賴關(guān)系,的生成不應(yīng)該以為條件。也就是說,為什么必須是第一個元組而不是?為什么后面必須跟而不是或結(jié)束符?

基于以上發(fā)現(xiàn),作者認(rèn)為樹結(jié)構(gòu)是表示輸出的更好選擇。樹可以表示一對多的關(guān)系,其中一個token在生成期間其后可以跟隨多個有效token,而在序列中只能表示一對一的關(guān)系,一個token在生成期間其后緊跟一個token,也就是貪心的策略。如圖 1 中的示例,兩個情感元組(“rolls”、“big”、“positive”)和(“rolls”、“not good”、“negative”)共享相同的方面詞“rolls”,體現(xiàn)了一對多的關(guān)系。

660c2b52-3d84-11ed-9e49-dac502259ad0.png

在本文中,作者將 ABSA 任務(wù)形式化為樹的路徑序列問題,提出了Seq2Path方法,其中的每個情感元組都是樹的路徑,可以獨立生成。只要給定輸入文本,就可以獨立確定任何有效的情感元組。例如,可以在不知道是一個有效的情感元組的情況下,確定是一個有效的情感元組。具體來說,在訓(xùn)練時,將每個情感元組視為一個獨立的目標(biāo),使用普通的 Seq2Seq 模型來學(xué)習(xí)每個目標(biāo)并計算平均損失。在推理時,使用Beam Search來生成多條路徑及其概率。此外,本文還引入了一個判別標(biāo)記來自動從Beam Search中選擇正確的路徑,為數(shù)據(jù)集擴充了判別標(biāo)記的負(fù)樣本數(shù)據(jù)。

任務(wù)定義

方面級情感分析的輸入為文本,在五個子任務(wù)上輸出的目標(biāo)序列為:

66c02684-3d84-11ed-9e49-dac502259ad0.png

其中,a表示方面項,o表示觀點項,s表示情感極性。

模型

Seq2Path的框架如圖2所示。里面的編碼器-解碼器架構(gòu)就是普通的 Seq2Seq 架構(gòu),主要有以下幾點區(qū)別:一是每個情感元組將被視為一個獨立的目標(biāo),會訓(xùn)練一個普通的 Seq2Seq 模型并計算平均損失。二是token的生成過程會形成一棵樹,將Beam Search用于并行和獨立地生成路徑。三是輸入是文本,輸出是帶有判別標(biāo)記v的情感元組。由于判別標(biāo)記沒有負(fù)樣本,因此還必須構(gòu)建一個增強數(shù)據(jù)集進行訓(xùn)練。

66e4e622-3d84-11ed-9e49-dac502259ad0.png

對于輸入句子,期望輸出一組元組,如前面所述,集合可以表示為一棵樹,其中的每個對應(yīng)樹的一條路徑,就是路徑的總數(shù)。訓(xùn)練的損失函數(shù)定義為這條路徑上的平均損失。就是普通的 Seq2Seq 損失,是每個時間步的損失。

6735d08c-3d84-11ed-9e49-dac502259ad0.png

6759e0bc-3d84-11ed-9e49-dac502259ad0.png

在推理階段,我們應(yīng)用帶有約束解碼的束搜索方法。束搜索算法根據(jù)條件概率在每一步為輸入序列選擇多個備選方案。通過束搜索,我們輸出概率遞減的 top-k 路徑,這些路徑表示路徑有效的可能性。在解碼期間也使用約束解碼,不去搜索整個詞匯表,而是在輸入文本和任務(wù)特定標(biāo)記中選擇token進行輸出。首先,我們刪除了一些重疊的預(yù)測,如果束搜索同時返回了“”和“”,選擇序列概率較高的那個。如果同時返回“”和““,其中和重疊,也選擇序列概率較高的那個。然后輸出判別標(biāo)記為true的,過濾其他無效路徑。

由于判別標(biāo)記沒有負(fù)樣本,因此數(shù)據(jù)增強步驟是必要的。為了自動選擇有效路徑,在每個負(fù)樣本的末尾附加一個判別標(biāo)記 v = “false”。本文用以下兩種方式生成負(fù)樣本,D1數(shù)據(jù)集是為了提高模型匹配元組元素的能力,隨機替換元組中的元素,生成“rolls, was not fresh, positive, false”, “sashimi, big,negative, false”等。D2數(shù)據(jù)集是為提高模型過濾大部分不良泛化情況的能力,首先用幾個小epoch訓(xùn)練模型,然后使用束搜索生成負(fù)樣本。增廣數(shù)據(jù)集就是正負(fù)樣本的并集。

67862b4a-3d84-11ed-9e49-dac502259ad0.png

67aabea6-3d84-11ed-9e49-dac502259ad0.png

我們希望判別標(biāo)記 v 能夠過濾無效路徑,又不希望模型的生成模仿負(fù)樣本,因此這里應(yīng)用了一個技巧性的損失掩碼。假設(shè),如果 y 是負(fù)樣本,即 y 的驗證標(biāo)記為“false”,則損失掩碼為如式7所示,如果 y 是正樣本,即 y 的驗證標(biāo)記為“true”,則損失掩碼如式8所示。損失掩碼意味著在損失計算中跳過了一些token,如下圖所示。除了判別令牌和“”令牌之外的所有令牌都被屏蔽。為帶有損失掩碼的損失,其中只有的標(biāo)記參與損失計算,可以得到如式9所示的損失函數(shù),最終數(shù)據(jù)集的總體損失如式10所示。

67c41f18-3d84-11ed-9e49-dac502259ad0.png

67d96f6c-3d84-11ed-9e49-dac502259ad0.png

68206ac0-3d84-11ed-9e49-dac502259ad0.png

6838e258-3d84-11ed-9e49-dac502259ad0.png

Seq2Path 的流程總結(jié)為算法1,首先生成負(fù)樣本數(shù)據(jù)進行數(shù)據(jù)增強。其次用普通的Seq2Seq方法訓(xùn)練模型,使用損失掩碼。在推理時使用束搜索,生成前k條路徑并剪枝。

684b681a-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

該篇文章在四個廣泛使用的基準(zhǔn)數(shù)據(jù)集上進行,分別為SemEval2014 Restaurant, Laptop,SemEval2015 Restaurant和SemEval2016 Restaurant,根據(jù)ABSA的不同子任務(wù),采取了以下的基線方法進行比較。

692273dc-3d84-11ed-9e49-dac502259ad0.png

整體的實驗結(jié)果如表2、3、4、5、6所示,總體而言,本文提出的方法幾乎所有子任務(wù)上的F1 分?jǐn)?shù)都達(dá)到了SOTA。

69455604-3d84-11ed-9e49-dac502259ad0.png

6975ef3a-3d84-11ed-9e49-dac502259ad0.png

69a0b184-3d84-11ed-9e49-dac502259ad0.png

69d85562-3d84-11ed-9e49-dac502259ad0.png

6a2b4c2c-3d84-11ed-9e49-dac502259ad0.png

最后作者也進行了一些實驗分析。首先分析束尺寸對性能的影響,總體而言,較小的束尺寸會導(dǎo)致更差的召回率,較大的束尺寸會導(dǎo)致更差的精度。然而,通過剪枝過程,無論 k 的選擇如何,在前面幾張實驗表中得到的性能相比其他方法都是最優(yōu)的,而最佳k的選擇則取決于任務(wù)和數(shù)據(jù)集。盡管束搜索需要更大的 GPU 內(nèi)存,但 Seq2Path 可以使用更短的最大輸出序列長度,從而減少內(nèi)存消耗。其次是數(shù)據(jù)增強的消融研究,數(shù)據(jù)集 D1 對 F1 分?jǐn)?shù)的影響較小,數(shù)據(jù)集 D2 對 F1 分?jǐn)?shù)有重大影響,說明利用少量epoch訓(xùn)練得到的模型得到負(fù)樣本可以有效提高模型性能。

總結(jié)

此次 Fudan DISC 解讀的三篇論文圍繞方面級情感分析展開,介紹了圖模型在方面級情感分析任務(wù)中的應(yīng)用,利用依存解析圖和句子結(jié)構(gòu)圖,可以為建模方面表示提供更精細(xì)的信息。最后,本文還介紹了一種Seq2Path的模型,改善了先前Seq2Seq方法解決ABSA任務(wù)時面臨的順序、依賴等問題。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3763

    瀏覽量

    136907
  • ACL
    ACL
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    12332
  • GAT
    GAT
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6405
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22613

原文標(biāo)題:ACL'22 | 基于圖模型的方面級情感分析研究

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA大語言模型推薦系統(tǒng)的應(yīng)用實踐

    推薦系統(tǒng)的主要任務(wù)在于根據(jù)用戶的過往行為預(yù)測其潛在興趣點,并據(jù)此推薦相應(yīng)的商品。傳統(tǒng)的推薦系統(tǒng),當(dāng)處理用戶請求時,會觸發(fā)多個召回模塊,例如熱門商品召回、個性化召回以及深度召回等,從而召回大量候選
    的頭像 發(fā)表于 03-05 09:30 ?603次閱讀
    NVIDIA大語言<b class='flag-5'>模型</b><b class='flag-5'>在</b>推薦系統(tǒng)<b class='flag-5'>中</b>的應(yīng)用實踐

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應(yīng)用選擇

    ); 二者均支持API調(diào)用,可根據(jù)業(yè)務(wù)需求混合部署(如用V3處理前端交互,R1負(fù)責(zé)后端計算)。 電子工程領(lǐng)域選用哪個模型最合適,有其他更好的模型推薦嗎? 電子工程領(lǐng)域的電路設(shè)計與
    發(fā)表于 02-14 02:08

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。預(yù)訓(xùn)練-微調(diào)范式
    發(fā)表于 12-24 15:03

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    挑戰(zhàn)的方法。 2 目標(biāo)檢測模型介紹 目標(biāo)檢測的任務(wù),有著許許多多的模型,如 Picodet、Faster R-CNN、YOLO、SSD等
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    內(nèi)為企業(yè)帶來效益。選擇模型時,需要評估其性能表現(xiàn)。這包括模型的準(zhǔn)確性、響應(yīng)速度、對話流暢性、情感理解能力等方面??梢酝ㄟ^對比不同
    發(fā)表于 12-17 16:53

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    情感分析是自然語言處理(NLP)領(lǐng)域的一項重要任務(wù),旨在識別和提取文本的主觀信息,如情感傾向、情感
    的頭像 發(fā)表于 11-13 10:15 ?1075次閱讀

    soc人工智能的創(chuàng)新應(yīng)用

    的應(yīng)用變得越來越廣泛和深入。 1. 社交媒體分析 社交媒體平臺已經(jīng)成為人們交流和分享信息的主要渠道。AI技術(shù),特別是自然語言處理(NLP)和機器學(xué)習(xí)(ML),分析社交媒體數(shù)據(jù)方面發(fā)揮
    的頭像 發(fā)表于 11-10 09:30 ?826次閱讀

    使用AI大模型進行數(shù)據(jù)分析的技巧

    使用AI大模型進行數(shù)據(jù)分析的技巧涉及多個方面,以下是一些關(guān)鍵的步驟和注意事項: 一、明確任務(wù)目標(biāo)和需求 使用AI大
    的頭像 發(fā)表于 10-23 15:14 ?2324次閱讀

    AI大模型自然語言處理的應(yīng)用

    AI大模型自然語言處理(NLP)的應(yīng)用廣泛且深入,其強大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對AI大模型
    的頭像 發(fā)表于 10-23 14:38 ?1206次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    信息有助于模型更深入地理解文本的含義和意圖。 3. 推理與判斷 問答任務(wù),大語言模型不僅需要理解問題的字面意義,還需要進行推理和判斷以得
    發(fā)表于 08-02 11:03

    AI模型MCU的應(yīng)用

    機遇。將AI模型集成到MCU,不僅提升了設(shè)備的智能化水平,還使得設(shè)備能夠執(zhí)行更復(fù)雜的任務(wù),實現(xiàn)自主決策和實時響應(yīng)。本文將從AI模型MCU
    的頭像 發(fā)表于 07-12 10:24 ?1652次閱讀

    不同類型神經(jīng)網(wǎng)絡(luò)回歸任務(wù)的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)模型,可以用于各種任務(wù),包括回歸。本文中,我們將討論不同類型的神經(jīng)網(wǎng)絡(luò),以及它們回歸任務(wù)
    的頭像 發(fā)表于 07-11 10:27 ?1866次閱讀

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    的應(yīng)用,如搜索引擎、機器翻譯、語音識別、情感分析等。 NLP的主要任務(wù) NLP的主要任務(wù)可以分為以下幾個方面: 1.1 詞法
    的頭像 發(fā)表于 07-09 10:26 ?1845次閱讀

    Al大模型機器人

    理解能力強大: AI大模型機器人可以理解和生成自然語言,能夠進行復(fù)雜的對話和語言任務(wù)。它們能夠識別語言中的語義、語境和情感,并據(jù)此作出適當(dāng)?shù)幕貞?yīng)。廣泛的知識儲備: 這些模型基于大規(guī)模的
    發(fā)表于 07-05 08:52

    智源研究院揭曉大模型測評結(jié)果,豆包與百川智能大模型表現(xiàn)優(yōu)異

    多模態(tài)理解圖文問答任務(wù),開源和閉源模型表現(xiàn)相當(dāng),而國產(chǎn)模型則表現(xiàn)出色。此外,中文語境下的文
    的頭像 發(fā)表于 05-20 09:26 ?1394次閱讀
    主站蜘蛛池模板: 视频一区二区在线 | 男女吃奶一进一出动态图 | 国产干美女 | 国产午夜人做人视频羞羞 | 亚洲成人在线播放 | 四虎精品影院永久在线播放 | sis色中色 | 2021国产成人午夜精品 | 在线视频综合网 | 黄色网免费 | 日本大片免a费观看在线 | 免费看片aⅴ免费大片 | 午夜国产福利在线观看 | 日本不卡在线一区二区三区视频 | 亚洲人成电影综合网站色 | 岛国大片在线播放 | 中国特级毛片 | 天堂资源在线bt种子 | 一级毛片日韩a欧美 | 网女色 | 欧美日韩性猛交xxxxx免费看 | 人人草人 | 天天干 夜夜操 | 黄色自拍偷拍 | 四虎精品影院永久在线播放 | 成人免费看片视频色多多 | 国产精品99r8免费视频2022 | 激情婷婷 | 手机看片免费永久在线观看 | 国产色婷婷精品综合在线观看 | 精品成人网 | 久久精品亚洲精品国产色婷 | 免费人成观看在线网 | 免费看黄色录像 | 午夜看毛片 | 色女仆影院 | 99久久999久久久综合精品涩 | 六月丁香婷婷天天在线 | 亚洲第一视频区 | 国产激烈无遮挡免费床戏视频 | 天天操天天射天天色 |