在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

預先訓練的語言模型能像人類一樣聰明地解釋明喻嗎?

深度學習自然語言處理 ? 來源:知識工場 ? 作者:知識工場 ? 2022-09-23 15:03 ? 次閱讀

前言

明喻是人們日常生活中一類常見的表述形式,解釋明喻可以幫助機器更好地理解自然語言。因此,明喻解釋(SimileInterpretation)是自然語言處理領域中一個重要的研究問題。如今,大規模預訓練語言模型(Pre-trainedLanguage Models , PLMs)在各類自然語言處理任務上得到突出的表現效果。那預訓練語言模型是否能像人一樣解釋明喻呢?

本文介紹了復旦大學知識工場實驗室的最新工作《Can Pre-trained Language Models Interpret Similes as Smart as Human?》,該工作已經被ACL 2022錄用。此工作創新性地提出了明喻屬性探測任務(Simile Property Probing),也即讓預訓練語言模型推斷明喻中的共同屬性。此工作從通用語料文本、人工構造題目兩個數據源構建明喻屬性探測數據集,規模為1,633個題目,涵蓋七個主要類別。基于構建的數據集,實驗證明預訓練語言模型具有一定推斷明喻屬性的能力,但是仍然不及人類的表現。為了進一步增強預訓練語言模型的明喻解釋能力,此工作借鑒知識表示方法設計優化目標,將明喻知識注入模型。實驗證明,該優化目標在探測任務帶來8.58%的提升、在情感分析下游任務上帶來1.37%的提升。

24bc8ff2-3aff-11ed-9e49-dac502259ad0.png

paper: https://arxiv.org/abs/2203.08452

Datasets and Code:https://github.com/Abbey4799/PLMs-Interpret-Simile

研究背景

通過捕捉概念之間的共同屬性,明喻將看似無關的兩個概念聯系起來,形成一段生動的表述。例如圖1中雖然“老婦人”與“蝸牛”看似毫無關系,前者是人類,后者是動物。但是,由于二者的共同屬性——“行走速度較慢”,明喻便在二者之間建立了聯系,拓展了語言的表達能力,豐富了讀者的想象力。

24fb994a-3aff-11ed-9e49-dac502259ad0.png

圖1:明喻通過共同屬性將兩個概念聯系起來的示例。

明喻主要分為兩類:封閉式明喻(ClosedSimile),以及開放式明喻(OpenSimile)。如圖2所示,二者區別在于是否顯式地指明本體、喻體的共同屬性,例如上例中的“速度慢”。

若屬性顯式出現(例如,The old lady walks as slow as a snail.),則是封閉式明喻;

若沒有顯式指出屬性(例如,The old lady walks like a snail.),則是開放式明喻。

252b9320-3aff-11ed-9e49-dac502259ad0.png

圖2:兩類明喻的示例。二者區別在于是否顯式地指明共同屬性。

明喻解釋是自然語言處理領域中的一個重要研究問題,可以幫助許多下游任務,例如:理解更復雜的修辭手法、情感分析任務等。以明喻“這個律師像一條鯊魚”為例,此句雖然用詞中性,但當機器推斷出“律師”和“鯊魚”共同具有的“氣勢洶洶”這一屬性后,便可判斷這一句所表達的是消極情緒。

近年來,大規模預訓練語言模型,例如BERT、RoBERTa,成為解決自然語言處理任務的新趨勢。許多研究證明,大規模預訓練語言模型在預訓練過程中存儲了一定知識在模型豐富的參數、精巧的結構中。然而,預訓練語言模型解釋明喻的能力卻并未被關注。

因此,我們創新性地提出了明喻屬性探測任務(SimileProperty Probing)。通過讓預訓練語言模型推斷明喻中的共同屬性,從而研究了預訓練語言模型解釋明喻的能力。

明喻屬性探測任務

01

問題建模

為了研究預訓練語言模型解釋明喻的能力,我們遮蓋(Mask)了封閉式明喻(ClosedSimile)中的屬性,讓語言模型根據上下文信息推斷屬性。由于本體和喻體可能同時擁有多個屬性,因此,我們將任務設計為選擇題(只有一個正確答案)而非填空題。

給定一個單詞序列S={w1w2,,...,wi-1,[MASK],wi+1,...,wn},將本體和喻體共有屬性wi遮蓋為[MASK]符號。PLMs需要從四個選項中選擇正確屬性,剩余三個選項為錯誤干擾選項。

02

數據集構建

針對明喻屬性探測任務,我們構建了評估數據集。我們首先從兩個數據來源搜集封閉式明喻,并基于明喻組件設計干擾選項候選集合,接著我們利用余弦相似度篩選最具有挑戰性的干擾選項得到最終選項,最后我們通過人工標注確保數據集的質量。整體數據集構建流程展示如圖3。

25529164-3aff-11ed-9e49-dac502259ad0.png

圖3:構建明喻屬性探測數據集流程圖。

數據來源

我們選擇兩個數據來源以構建數據集:通用語料文本、人工構造題目。由于開放式明喻的屬性沒有被顯式指出,若要用以構建明喻屬性探測數據集,需要人工根據上下文標注正確屬性。為了減少標注的成本,在構建數據集的過程中,我們選擇顯式指出屬性的封閉式明喻作為數據來源。

通用語料文本。首先選取兩個通用語料庫:BNC以及iWeb,隨后利用模版as ADJ as (a, an, the) NOUN匹配句子。

人工構造題目。老師為檢驗學生是否掌握明喻知識所制定的題目是合適的數據來源。因此,我們將在線測驗的趣味學習平臺Quizizz作為數據來源。選取一系列標題與明喻相關的測驗,并基于測驗中的問題和答案解析出封閉式明喻。

為了保證數據集的質量,三個標注者對句子是否為明喻進行判斷,并標注每個句子的明喻組件。數據集中所有屬性均為單符號的(single-token),原句中的多符號(multi-token)屬性均被替換為它們在知識庫WordNet和ConceptNet中的單符號同義詞。

干擾選項構建

為了保證題目的質量,我們以兩個原則設計了剩余的三個干擾選項:錯誤(true-negative)、具有挑戰性(challenging)。也即,高質量的干擾選項應該違背上下文的邏輯(true-negative ),同時與正確答案語義相關(challenging)。

生成干擾選項。為了實現“具有挑戰性(challenging)”的要求,我們基于明喻中四個語義相關的組件(本體topic、喻體vehicle、謂詞event、屬性property)設計干擾選項候選集合。

給定原有屬性,我們首先從知識庫WordNet和ConceptNet中獲取反義詞;

對于剩下的三個組件,我們首先利用ConceptNet的HasProperty和COMET分別獲得每個組件相關屬性。接著,通過統計頻次,獲得每個組件在Wikipedia和BookCorpus中共現次數最多的副詞/形容詞,選取共現頻次排名前十的修飾詞(并且頻次大于1)作為候選選項。

通過以上策略,得到干擾選項候選集。

篩選干擾選項。我們利用句子的相似度,進一步從干擾選項候選集中獲得最具有挑戰性的干擾選項。整體流程如圖4。給定原句以及將正確屬性替換為的干擾選項的新句子,我們利用RoBERTaLARGE提取兩類特征,從而衡量二者的相似度。

一個是上下文特征(Context Embedding),由[CLS]的嵌入向量表示;

一個是單詞特征(Word Embedding),由正確選項或干擾選項的嵌入向量表示。

最后,拼接兩個特征,利用余弦相似度(consinesimilarity)衡量正確答案和干擾選項之間在給定上下文中的關聯性。最終,選取關聯性最高的三個干擾選項與正確答案組成最終選項。

人工確認選項。為了確保干擾選項為“錯誤(true-negative)”的,由三個標注者對干擾選項進行清洗。

25a0d748-3aff-11ed-9e49-dac502259ad0.png

圖4:篩選最具有挑戰性的干擾選項的示意圖。

數據集統計指標

最終,我們從通用語料文本、人工構造題目兩個數據源構建明喻屬性探測數據集,規模為1,633個題目,涵蓋七個類別。題目示例如表1。

表1:明喻屬性探測數據集中各類題目的示例和占比。其中,“__”標示的選項是正確答案。每句中的斜體詞分別代表本體、遮蓋后的屬性和喻體。

25b4a8d6-3aff-11ed-9e49-dac502259ad0.png

數據集統計指標如表2。整體而言,Quizzes數據集中的明喻更常見,GeneralCorpus數據集中的明喻上下文更豐富。

表2:明喻屬性探測數據集統計指標。

25ec1a5a-3aff-11ed-9e49-dac502259ad0.png

03

有監督微調

除了評估預訓練語言模型在零樣本場景下直接表現的預測明喻屬性能力,我們利用遮蓋屬性后的Masked Language Modeling (MLM)訓練目標微調模型,探索微調是否能提升模型理解明喻的能力。我們利用來自StandardizedProject Gutenberg Corpus(SPGC)語料庫4510條(Noun... as ADJ as ... NOUN)的句子作為微調數據。

主要實驗結果

我們對比了模型在零樣本、微調后的結果,并與前人工作、人類表現進行對比。實驗結果如表3。

表3:各模型在明喻屬性探測任務中的準確率。

26086660-3aff-11ed-9e49-dac502259ad0.png

我們觀察到:

模型在預訓練階段存儲的知識可以幫助推斷明喻屬性;

利用MLM目標微調可以進一步提升模型預測明喻屬性的能力;

微調后的模型仍然不及人類的表現。

總體而言,模型在Quizzes數據集上的表現好于在GeneralCorpus數據集上的表現效果,更豐富的上下文會增加推斷明喻屬性的難度。同時,RoBERTa的表現持續好于BERT,證明更大規模的預訓練語料可以讓模型建模更多的明喻文本。

我們還對明喻各個組件對解釋明喻的貢獻程度進行探究,從而進一步揭示模型解釋明喻的機制。我們分別將明喻組件(本體、喻體、比較詞)替換為[UNK]符號,將謂詞替換為be動詞從而在抹除語義的同時不影響語法。我們同時隨機替換任一符號為[UNK]作為對照。實驗結果如表4。

表4:未經微調的預訓練語言模型在分別遮蓋各組件的情況下預測明喻屬性的結果。

26214194-3aff-11ed-9e49-dac502259ad0.png

我們觀察到:

喻體、本體和比較詞較上下文能提供更關鍵的信息;

喻體能提供最豐富的語義信息,本體次之。

因此,我們認為有效利用喻體和本體的信息可以進一步提高模型的表現效果。

增強PLMs中的明喻知識

01

設計目標函數進行知識增強

根據實驗分析,我們已知本體和喻體是推測明喻屬性最重要的兩個組件。因此,由知識表示相關方法(Knowledge Embedding, KE)啟發,我們認為屬性(property)可以看作本體(topic)和喻體(vehicle)的關系。受事實三元組的啟發,我們將明喻看作三元組(本體topic,屬性property,喻體vehicle)。如圖5所示,在表示空間中,將屬性看作從本體到喻體的平移向量。用知識表示方法的打分函數對屬性予以評估和約束。

264b0092-3aff-11ed-9e49-dac502259ad0.png

圖5:我們設計的目標函數示意圖

受經典的知識表示方法TransE啟發,我們利用均方誤差(MeanSquare Error, MSE)損失函數作為我們的知識表示損失函數(KE Loss)。

LKE= MSE(Et+ Ep, Ev)

其中,Et,Ep, Ev為本體、屬性、喻體由語言模型編碼的表示向量。我們也嘗試了改進后的知識表示方法(例如TransH,TransD),我們將結果展示在附錄中。

最終,我們的損失函數由MLMLoss和KE Loss共同組成:

LOurs =αLKE + LMLM

其中,α是平衡兩個目標函數的超參數。

02

實驗結果

我們分別基于MLM目標函數以及我們設計的目標函數進行微調,對比模型在明喻屬性探測任務上的表現效果。實驗結果如表5。

表5:利用MLM以及我們設計的目標函數在明喻屬性探測任務上的準確率。

266aefc4-3aff-11ed-9e49-dac502259ad0.png

我們觀察到我們設計的目標函數可以提高模型推測共同屬性的能力,在明喻屬性探測任務上驗證了我們設計的目標函數的有效性。

研究表明,明喻往往帶有情感極性。為了進一步揭示改進后目標函數的應用潛力,我們在情感分析下游任務上進行實驗。我們選取Amazon評論情感分析數據集進行二分類任務,訓練過程中僅更新MLP層的參數,預訓練語言模型的參數保持不變。預訓練語言模型的參數來自于明喻屬性探測任務中的三個場景:零樣本(Original)、基于MLM目標函數微調后(LMLM)、基于知識增強后的模板函數微調后(LOurs)。實驗結果如表6。

表6:三個場景下的預訓練語言模型在情感分析下游任務上的準確率。

2683d53e-3aff-11ed-9e49-dac502259ad0.png

我們觀察到,增強預訓練語言模型推斷明喻屬性的能力可以提升模型分析文本情感極性的能力。同時在下游任務上也驗證了我們設計的目標函數的有效性。并且,我們在論文中也通過實驗分析了目標函數帶來表現提升的原因。

總結

我們是第一篇通過設計明喻屬性探測任務研究預訓練語言模型解釋明喻能力的文章。基于兩個數據來源構建了兩個明喻屬性探測數據集,并進行了一系列實驗。我們證明了預訓練語言模型在預訓練階段已經掌握一定推斷明喻屬性的能力,同時該能力可以進一步在精調階段提升,但是仍然與人的表現有所差距。特別地,我們提出的目標函數將明喻知識注入模型,進一步縮短了這一差距。我們的目標函數在明喻屬性探測任務以及情感分析下游任務上都表現出有效性。在未來,我們將考慮探索如何讓機器解釋更復雜的修辭手法,例如隱喻和類比。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3383

    瀏覽量

    49337
  • 語言模型
    +關注

    關注

    0

    文章

    546

    瀏覽量

    10361
  • 數據集
    +關注

    關注

    4

    文章

    1211

    瀏覽量

    24890

原文標題:ACL'22丨預訓練語言模型能否像人一樣解釋明喻

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    騰訊公布大語言模型訓練新專利

    近日,騰訊科技(深圳)有限公司公布了項名為“大語言模型訓練方法、裝置、計算機設備及存儲介質”的新專利。該專利的公布,標志著騰訊在大語言
    的頭像 發表于 02-10 09:37 ?106次閱讀

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎模型。 ? 大模型個簡稱,完整的叫法,應該是“人工智能預訓練模型”。預訓練,是
    的頭像 發表于 11-25 09:29 ?6772次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    從零開始訓練個大語言模型需要投資多少錢?

    ,前言 ? 在AI領域,訓練個大型語言模型(LLM)是個耗時且復雜的過程。幾乎每個做大型
    的頭像 發表于 11-08 14:15 ?398次閱讀
    從零開始<b class='flag-5'>訓練</b><b class='flag-5'>一</b>個大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>需要投資多少錢?

    Stem32CubeIDEKeil一樣指定不同文件下的代碼編譯嗎?

    Stem32CubeIDEKeil一樣指定不同文件下的代碼編譯
    發表于 07-23 06:22

    語言模型的預訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型的預訓練是這技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使
    的頭像 發表于 07-11 10:11 ?594次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領域中得到了廣泛應用。預
    的頭像 發表于 07-03 18:20 ?3292次閱讀

    Meta高管稱大語言模型永遠無法人類一樣

    Meta的人工智能主管楊立昆近日表示,盡管ChatGPT等生成式人工智能產品備受矚目,但其背后的大型語言模型(LLM)永遠無法實現像人類一樣的推理和計劃能力。
    的頭像 發表于 05-27 09:50 ?539次閱讀

    語言模型:原理與工程實踐+初識2

    系列變革。 大語言模型是深度學習的應用之,可以認為,這些模型的目標是模擬人類交流,為了理解
    發表于 05-13 00:09

    語言模型:原理與工程時間+小白初識大語言模型

    解鎖 我理解的是基于深度學習,需要訓練各種數據知識最后生成自己的的語言理解和能力的交互模型。 對于常說的RNN是處理短序列的數據時表現出色,耳真正厲害的是Transformer,此框架被推出后直接
    發表于 05-12 23:57

    【大語言模型:原理與工程實踐】大語言模型的應用

    類任務上表現出色,甚至在零本條件下也能取得良好效果。另類則需要逐步推理才能完成的任務,類似于人類的系統2,如數字推理等。然而,隨著參數量的增加,大語言
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    評測任務則重點評估模型在提供方法論和實踐建議方面的能力。這類任務要求模型經驗豐富的導師或專家那樣,為用戶提供有價值的建議和解決方案。總之,這套綜合性的評測框架為全面評估大
    發表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    訓練數據時,數量、質量和多樣性三者缺不可。 數據的多樣性對于大語言模型至關重要,這主要體現在數據的類別和來源兩個方面。豐富的數據類別能夠提供多樣的
    發表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    模型架構奠定基礎。然后,引介些經典的預訓練模型,如BERT、GPT等。最后,解讀ChatGPT和LLaMA系列模型,幫助讀者初步感知大
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】核心技術綜述

    的復雜模式和長距離依賴關系。 預訓練策略: 預訓練是LLMs訓練過程的第階段,模型在大量的文本數據上學習
    發表于 05-05 10:56

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    用于文本生成,根據提示或上下文生成連貫、富有創造性的文本,為故事創作等提供無限可能。大語言模型也面臨挑戰。方面,其計算資源需求巨大,訓練和推理耗時;另
    發表于 05-04 23:55
    主站蜘蛛池模板: 国产福利网站 | 国产福利萌白酱喷水视频铁牛 | 久久国产乱子伦精品免费一 | 国产高清一级视频在线观看 | 欧美女同在线 | 国产免费人人看大香伊 | 久久天天躁夜夜躁狠狠85台湾 | 午夜免费毛片 | 黄色录像视频网站 | 亚洲成av人影片在线观看 | 4338×亚洲全国最大色成网站 | 久久福利青草精品资源 | 欧美aⅴ| 久久精品久噜噜噜久久 | 欧美无遮挡国产欧美另类 | 欧美资源在线观看 | 免费黄色地址 | 欧美人与z0xxxx另类 | ww7788色淫网站女女免费 | 天堂视频网 | 最新合集丨新片速递 | 免费视频亚洲 | 中文字幕一区二区三区精彩视频 | 九九热九九 | 天天干夜夜叭 | 亚洲综合在线一区 | 久久艹免费视频 | 久久国产午夜精品理论片34页 | 天天澡天天摸天天爽免费 | 国产hs免费高清在线观看 | 久久精品久噜噜噜久久 | 色www视频永久免费 色www视频永久免费软件 | 国产精品视频永久免费播放 | 97色婷婷成人综合在线观看 | 免费人成在观看 | 三级毛片在线看 | 激情文学综合丁香 | 香港日本三级在线播放 | 国产成人高清一区二区私人 | 亚洲天堂手机在线 | 成年人啪啪网站 |