91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

口語語言理解在任務型對話系統中的探討

深度學習自然語言處理 ? 來源:哈工大SCIR ? 作者:滕德川 ? 2021-03-31 17:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.1 研究背景與任務定義

口語語言理解在任務型對話系統中扮演了一個非常重要的角色,其目的是識別出用戶的輸入文本中蘊含的意圖和提及到的槽位,一般被分為意圖識別和槽位填充兩個子任務[1]。以句子“use netflix to play music”為例,意圖識別將整個句子的意圖分類為播放音樂(PlayMusic),槽位填充為句子中的每個單詞賦予不同的槽位標簽(即,O, B-service,O,O,O)。從任務類型來區分,意圖識別屬于句子分類任務,槽位填充可以被建模成序列標注任務。 與英文口語語言理解相比,中文口語語言理解面臨了一個獨特的挑戰:在完成任務之前需要進行詞語切分。盡管事先做了分詞,不完美的分詞系統仍然會錯誤識別槽位的邊界,隨即預測了錯誤的槽位類別,使得模型的性能遭受來自分詞系統的錯誤級聯。

c21a09d8-8e8e-11eb-8b86-12bb97331649.png

圖1 中文口語語言理解示例

1.2 研究動機

為了避免來自分詞系統的錯誤級聯,Liu等人[2]提出了一個基于字符的聯合模型完成中文口語語言理解,達到了當時最好的效果。

然而,直觀上,中文詞語信息的引入有助于對中文文本的理解,進而正確完成意圖識別和槽位填充任務。

以圖1為例,正確的中文分詞為"周冬雨 / 有 / 哪些 / 電影"。如果不引入這種分詞信息作為補充,可能會給"周"賦予Datetime_date槽位標記,將"冬雨"看作Datetime_time。而有了類似于"周冬雨"這樣詞語的幫助,檢測正確的槽位標簽Artist會變得異常容易。

除此之外,由于口語語言理解由兩個類型不同又相互關聯的任務組成,利用任務間的交互可以對在兩個任務間建模細粒度的詞語信息遷移起到重要的幫助。

所以,在考慮任務特性的同時引入詞語信息是很有必要的。

因此,接下來的問題是:是否可以在避免分詞系統錯誤級聯、考慮口語語言理解任務特性的同時,引入中文詞語信息增強中文意圖識別和槽位填充。

為了解決此問題,我們提出了簡單而有效的Multi-LevelWordAdapter (MLWA)模型引入中文詞語信息,對意圖識別和槽位填充進行聯合建模。其中,1) sentence-level word adapter 直接融合詞級別和字級別的句子表示實現對意圖的識別;2) character-level word adapter 針對輸入文本中的每個字動態地確定不同字特征和不同詞特征之間的融合比例,進而得出該字的槽位標簽,以達到對詞語知識的細粒度組合這一目的。另外,word adapter可以作為一個依附于輸出層的插件被應用于各種基于字符的中文口語語言理解模型,其無需改變原始模型其他分量的特性帶來了更多的應用靈活性。

2. 模型

2.1 整體框架

模型以一個普通的基于字符的模型(圖2 (a))為基礎,附以multi-level word adapter模塊(圖2 (b))針對意圖識別和槽位填充分別引入并捕獲句子級和字符級詞語信息。

c2cdea34-8e8e-11eb-8b86-12bb97331649.png

圖2 Multi-Level Word Adapter 整體框架

2.2 Vanilla Character-based Model

Char-Channel Encoder

自注意力編碼器(Self-Attentive Encoder)[3]由抽取序列上下文信息的自注意力模塊[4]和捕獲序列信息的雙向LSTM[5]組成。其接收中文字輸入序列 = ,獲得BiLSTM和self-attention的輸出后,連接兩者輸出字符編碼表示序列 = 。

Intent Detection and Slot Filling

意圖識別和槽位填充均以自注意力編碼器的輸出為基礎,進行進一步的編碼,即兩者共享底層表示信息。其中,意圖識別模塊利用一個MLP Attention模塊獲得整個字序列的綜合表示向量 ,進而完成對意圖的分類(意圖標簽集表示為 ):

c32b106a-8e8e-11eb-8b86-12bb97331649.png

c3973858-8e8e-11eb-8b86-12bb97331649.png

槽位填充應用一個單向LSTM作為解碼器,在每個解碼時間步 ,其接收每個字表示 ,意圖標簽編碼 ,來自上一個時間步解碼的槽位標簽編碼 ,輸出解碼器隱層向量 ,進而計算得到第 個字 的槽位標簽(槽位標簽集表示為 ):

c3d0bca4-8e8e-11eb-8b86-12bb97331649.png

c41caac4-8e8e-11eb-8b86-12bb97331649.png

2.3 Multi-Level Word Adapter

Word-Channel Encoder

在我們的框架中,單詞通道編碼器獨立于字符通道編碼器,也就是說,如何編碼單詞信息,編碼何種單詞信息都是自由的,在這里以使用外部中文分詞系統(CWS)為例。對字序列 進行分詞可以得到單詞序列 = 。與字符通道編碼器相同,單詞通道編碼器利用另一個自注意力編碼器生成單詞編碼表示序列 = 。

Word Adapter

word adapter 是一個簡單的神經網絡,可以適應性地融合不同的字特征的詞語特征,圖2 (c)顯示了其內部結構。給定輸入字符向量 和詞語向量 ,word adapter可以計算兩者之間的權重比例,進而加權求和得到融合后的特征向量:

c4570cd2-8e8e-11eb-8b86-12bb97331649.png

Sentence-Level Word Adapter

給定字符序列和單詞序列的上下文表示序列 和 ,可以通過上文的MLP Attention模塊獲得兩種序列的綜合表示向量 和 。

隨后,sentence-level word adapter計算融合后的綜合向量 ,并利用它預測意圖標簽 :

c4a19c02-8e8e-11eb-8b86-12bb97331649.png

Character-Level Word Adapter

在完成槽位填充之前,我們首先采納一個雙向LSTM增強單詞序列的表示。在每個時間步 ,單詞通道的槽位填充編碼器輸出的隱層向量由相應的單詞表示 和意圖標簽的編碼 計算得到。

然后,character-level word adapter針對每個輸入字符,為字符特征和詞語特征的不同組合確定不同的融合比例:

c50ba124-8e8e-11eb-8b86-12bb97331649.png

最后,我們利用融合后的表示 完成第 個字符的槽位標注:

c574d86a-8e8e-11eb-8b86-12bb97331649.png

2.4 Joint Training

我們采納聯合訓練策略優化模型,最終的聯合目標函數如下, and 分別是正確的意圖和槽位標簽:

c5dd6d44-8e8e-11eb-8b86-12bb97331649.png

3. 實驗

3.1 實驗設置

數據集

我們在兩個公開的中文數據集CAIS和ECDT-NLU上進行了實驗,我們保持了兩個數據集原分割不變。

CAIS中, 訓練集包含7995個句子,驗證集和測試集分別有994和1024個句子。

ECDT-NLU由2576個訓練樣本和1033個測試樣本組成。

評價指標

與前人相同,我們使用以下三個指標來評價中文口語語言理解模型的性能:

F1值作為槽位填充任務的評價指標。

準確率(accuracy)作為意圖識別任務的評價指標。

使用整體準確率(overall accuracy)指標評價句子級語義幀解析能力。一個整體準確的預測表示預測的意圖和槽位標簽與人工標注完全相同。

3.2 主實驗結果

表1 主實驗結果

c6496e7c-8e8e-11eb-8b86-12bb97331649.png

所有的baseline模型均考慮了意圖識別和槽位填充兩個任務之間的相關性,并聯合建模這兩個相關任務。從結果可以看出:

我們的實驗結果在所有指標上均超過了這些baseline模型,達到了當前最好的性能,證明了我們提出的multi-level word adapter的有效性。

Slot和Intent指標的提升表明利用multi-level word adapter融入單詞信息可以促進模型對于中文意圖和槽位的識別和標注。

整體準確率的提升歸因于考慮了兩個任務之間的相關性,并通過聯合訓練相互增強兩者。

3.3 消融實驗結果

為了驗證已提出的word adapters的有效性,我們對以下幾個重要分量執行了消融實驗:

w/o Multiple Levels 設置中,我們移除了character-level word adapter,在對每個字符的槽位標記時使用相同的單詞信息。

w/o Sentence-Level word adapter 設置中,不使用sentence-level word adapter,只使用字序列編碼信息去完成意圖識別。

w/o Character-Level word adapter 設置中,不使用character-level word adapter,只使用字序列編碼信息去完成槽位填充。

表2 消融實驗結果

c69c29e6-8e8e-11eb-8b86-12bb97331649.png

上表是消融實驗的結果,從中可以看出:

使用多層次機制帶來了顯著的正向效果,這從側面證實了對于字符級的槽位填充任務,每個字需要不同的單詞信息,即細粒度的詞信息。

不使用sentence-level word adapter時,在ECDT-NLU數據集上,意圖識別準確率出現了明顯的下降,表明sentence-level word adapter可以抽取有利的詞信息去提升中文意圖識別。

不使用character-level word adapter時,兩個數據集上的槽位填充指標出現了不同程度的下降,證明了詞語信息可以為中文槽位填充的完成提供有效的指導信息(例如,明確的單詞信息可以幫助模型檢測單詞邊界)。

3.4 預訓練模型探索實驗

我們進一步在這兩個數據集上探索了預訓練模型的效果。我們將char-channel encoder替換為預訓練模型BERT,模型的其他部分保持不變,進行fine-tuning訓練,來觀察我們提出的multi-level word adapter的效果。

表3 BERT模型探索結果

c6e29ad4-8e8e-11eb-8b86-12bb97331649.png

表3是對于BERT預訓練模型的探索結果。其中,

Joint BERT 利用預訓練模型BERT得到輸入字序列的編碼,經過線性分類層完成意圖識別和槽位填充,隨后應用多任務學習方法進行訓練。

Our Model + BERT 是使用BERT替換掉char-channel encoder作為字序列的Encoder。具體來說,BERT的[CLS]輸出向量作為字序列的綜合向量,其他輸出向量作為各字的表示向量。

實驗結果表明,multi-level word adapter和BERT的結合可以進一步提升模型效果,證明了我們的貢獻與預訓練模型是互補的。

4.結論

在這篇文章中,我們的貢獻如下:

我們首次利用一個簡單有效的方法向中文口語語言理解中引入中文單詞信息。

我們提出了一個多層次的單詞適配器,句子級和字符級單詞適配器分別向意圖識別和槽位填充提供兩個層次的單詞信息表示,從而實現了不同級別任務的詞信息表示定制化。

在兩個公開數據集上進行的實驗表明,我們的模型取得了顯著性的改進,并實現了最佳的性能。此外,我們的方法與預訓練模型(BERT)在性能上是互補的。

原文標題:【工大SCIR】首次探索中文詞信息增強中文口語語言理解!

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3521

    瀏覽量

    50423
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22622

原文標題:【工大SCIR】首次探索中文詞信息增強中文口語語言理解!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    I/O密集任務開發指導

    使用異步并發可以解決單次I/O任務阻塞的問題,但是如果遇到I/O密集任務,同樣會阻塞線程其它任務的執行,這時需要使用多線程并發能力來進行
    發表于 06-19 07:19

    CPU密集任務開發指導

    CPU密集任務是指需要占用系統資源處理大量計算能力的任務,需要長時間運行,這段時間會阻塞線程其它事件的處理,不適宜放在主線程進行。例如圖像處理、視頻編碼、數據分析等。 基于多線程并發
    發表于 06-19 06:05

    基于MindSpeed MM玩轉Qwen2.5VL多模態理解模型

    多模態理解模型是讓AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數據背后的語義、情感、邏輯或場景,從而完成推理、決策等任務
    的頭像 發表于 04-18 09:30 ?1482次閱讀
    基于MindSpeed MM玩轉Qwen2.5VL多模態<b class='flag-5'>理解</b>模型

    【「具身智能機器人系統」閱讀體驗】1.初步理解具身智能

    感謝 感謝電子發燒友網社區給予《具身智能機器人系統》試讀機會。在這知識的盛宴,我感受到社區的關懷與支持。定不負期望,認真研讀,分享所學,回饋社區。 一、本書大綱 《具身智能機器人系統》是一本
    發表于 12-28 21:12

    深入理解C語言:循環語句的應用與優化技巧

    在程序設計,我們常常需要重復執行某一段代碼。為了提高效率和簡化代碼,循環語句應運而生。C語言作為一門經典的編程語言,提供了多種循環控制結構,幫助程序員高效地實現重復操作。掌握循環語句的使用,不僅
    的頭像 發表于 12-07 01:11 ?635次閱讀
    深入<b class='flag-5'>理解</b>C<b class='flag-5'>語言</b>:循環語句的應用與優化技巧

    循環神經網絡在自然語言處理的應用

    自然語言處理(NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,循環神經網絡(RNN)因其在處理序列數據方面的優勢而在NLP
    的頭像 發表于 11-15 09:41 ?814次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短期記憶(LSTM)網絡的出現
    的頭像 發表于 11-13 09:56 ?1161次閱讀

    使用LLM進行自然語言處理的優缺點

    語言任務,如文本分類、情感分析、機器翻譯等。以下是使用LLM進行NLP的一些優缺點: 優點 強大的語言理解能力 : LLM通過訓練學習了大量的語言
    的頭像 發表于 11-08 09:27 ?2450次閱讀

    AI對話魔法 Prompt Engineering 探索指南

    Engineering 就是設計和優化與AI對話的“提示詞”或“指令”,讓AI能準確理解并提供有用的回應。 Prompt Engineering 主要包括以下幾個方面: 1.明確目標:希望AI完成什么任務。例如:寫一篇文章,回
    的頭像 發表于 11-07 10:11 ?1442次閱讀
    AI<b class='flag-5'>對話</b>魔法 Prompt Engineering 探索指南

    深入理解 Llama 3 的架構設計

    最新的自然語言處理(NLP)技術和深度學習算法,旨在提供更加自然、流暢和智能的對話體驗。 1. 核心組件 Llama 3的架構設計可以分為以下幾個核心組件: 1.1 預處理模塊 預處理模塊負責將原始文本數據轉換為模型可以理解的格
    的頭像 發表于 10-27 14:41 ?1226次閱讀

    Llama 3 語言模型應用

    理解復雜的上下文信息,包括對話歷史、用戶偏好和文化差異。這使得它在對話系統和個性化推薦中表現出色。 情感分析 :通過深度學習技術,Llama 3 能夠識別和
    的頭像 發表于 10-27 14:15 ?739次閱讀

    AI大模型在自然語言處理的應用

    AI大模型在自然語言處理(NLP)的應用廣泛且深入,其強大的語義理解和生成能力為NLP任務帶來了顯著的性能提升。以下是對AI大模型在NLP
    的頭像 發表于 10-23 14:38 ?1543次閱讀

    云知聲口語評測技術應用于教育領域

    日前,云知聲入選大連、丹東、本溪三地初中學業水平考試英語聽力口語考試智能口語評測技術服務商,并以其專業可靠的口語評測,確保三地英語考試結果的公平、客觀、準確,為教育公平和學生能力的真實反映提供了有力保障。
    的頭像 發表于 09-19 15:41 ?704次閱讀

    打開labview時很慢,在任務管理器里面看到,內存能有1000多M,重裝也沒用,各位大佬這是什么問題引起的,怎么解決

    打開labview時很慢,在任務管理器里面看到,內存能有1000多M,重裝也沒用,各位大佬這是什么問題引起的,怎么解決
    發表于 09-14 09:24

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    信息有助于模型更深入地理解文本的含義和意圖。 3. 推理與判斷 在問答任務,大語言模型不僅需要理解問題的字面意義,還需要進行推理和判斷以得
    發表于 08-02 11:03
    主站蜘蛛池模板: 色视频网址 | 亚洲 另类 在线 欧美 制服 | 国产色妞妞在线视频免费播放 | 欧美黄色片在线 | 老司机精品视频免费 | 三级网站免费 | 狠狠色 综合色区 | xxxx曰本| 婷婷六月天在线 | 色人人| 天堂在线www天堂中文在线 | 尤物久久99热国产综合 | 免费人成网ww777kkk手机 | 午夜视频h| 日本黄色免费 | 免费大片黄日本在线观看 | 天天干天天操天天玩 | 欧美人与性另类 | 国产稀缺精品盗摄盗拍 | 草草影院ccyy国产日本欧美 | 在线观看网站国产 | 日韩a毛片 | 三级免费黄录像 | 澳门久久 | 久久精品国波多野结衣 | 人人做天天爱夜夜爽中字 | 国产三级毛片视频 | 亚洲黄网在线 | 最新地址四虎www4hutv | 久热操| 四虎永久在线精品免费影视 | 亚洲一卡2卡4卡5卡6卡在线99 | 一区二区三区无码高清视频 | 91精品国产色综合久久不卡蜜 | 一个综合色 | 夜夜夜精品视频免费 | 美女扒开尿口给男的桶个爽 | 国产香蕉75在线播放 | 美女 免费 视频 黄的 | 天天干天天干天天干天天 | 国产美女叼嘿视频免费看 |