摘要
作為一種有效的策略,數(shù)據(jù)增強 (data augmentation, DA) 緩解了深度學習技術可能失敗的數(shù)據(jù)稀缺情況。
它廣泛應用于計算機視覺,然后引入自然語言處理,并在許多任務中取得了改進。DA方法的主要重點之一是提高訓練數(shù)據(jù)的多樣性,從而幫助模型更好地泛化到看不見的測試數(shù)據(jù)。
在本次綜述中,我們根據(jù)增強數(shù)據(jù)的多樣性將 DA 方法分為三類,包括改寫(paraphrasing)、噪聲(noising)和采樣(sampling)。我們的論文著手根據(jù)上述類別詳細分析 DA 方法。此外,我們還介紹了它們在 NLP 任務中的應用以及面臨的挑戰(zhàn)。
介紹
數(shù)據(jù)擴充是指通過添加對現(xiàn)有數(shù)據(jù)稍作修改的副本或從現(xiàn)有數(shù)據(jù)中新創(chuàng)建的合成數(shù)據(jù)來增加數(shù)據(jù)量的方法。這些方法緩解了深度學習技術可能失敗的數(shù)據(jù)稀缺情況,因此 DA 最近受到了積極的關注和需求。數(shù)據(jù)增強廣泛應用于計算機視覺領域,例如翻轉和旋轉,然后引入自然語言處理(NLP)。與圖像不同,自然語言是離散的,這使得在 NLP 中采用 DA 方法更加困難且探索不足。
最近提出了大量的 DA 方法,對現(xiàn)有方法的調(diào)查有利于研究人員跟上創(chuàng)新的速度。之前的兩項調(diào)查都提供了 NLP DA 的鳥瞰圖。他們直接按照方法來劃分類別。因此,這些類別往往過于有限或過于籠統(tǒng),例如,反向翻譯和基于模型的技術。Baier在 DA 上發(fā)布僅用于文本分類的綜述。在本次調(diào)研中,我們將全面概述 NLP 中的 DA 方法。我們的主要目標之一是展示 DA 的本質(zhì),即為什么數(shù)據(jù)增強有效。為了促進這一點,我們根據(jù)增強數(shù)據(jù)的多樣性對 DA 方法進行分類,因為提高訓練數(shù)據(jù)的多樣性是 DA 有效性的主要推動力之一。我們將 DA 方法分為三類,包括改寫、噪聲和采樣。
該論文著手根據(jù)上述類別詳細分析 DA 方法。此外,還介紹了它們在 NLP 任務中的應用以及面臨的挑戰(zhàn)。
具體內(nèi)容
一共分為五大部分。
全面回顧了這三個類別,并分析了這些類別中的每一種方法。還介紹了方法的特征,例如粒度和級別:
基于改寫(paraphrasing)的方法
基于對句子的適當和有限制的更改,生成與原始數(shù)據(jù)具有有限語義差異的增強數(shù)據(jù)。增強數(shù)據(jù)傳達與原始形式非常相似的信息。
基于噪聲(noising)的方法
在保證有效性的前提下加入離散或連續(xù)的噪聲。這些方法的重點是提高模型的魯棒性。
基于抽樣(sampling)的方法
掌握數(shù)據(jù)分布并對其中的新數(shù)據(jù)進行抽樣。這些方法輸出更多樣化的數(shù)據(jù),滿足基于人工啟發(fā)式和訓練模型的下游任務的更多需求。
改寫數(shù)據(jù)增強技術包括三個層次:詞級、短語級和句子級
使用語言模型進行改寫
使用規(guī)則進行改寫
機器翻譯改寫
通過模型生成進行改寫
五種基于噪聲的方法的示例
基于采樣的模型
不同DA方法的特點。Learnable表示方法是否涉及模型訓練;online 和 offline 表示 DA 過程是在模型訓練期間還是之后
總結了提高增強數(shù)據(jù)質(zhì)量的常用策略和技巧,包括方法堆疊、優(yōu)化和過濾策略。
影響每個 DA 方法中增強效果的超參數(shù)
分析了上述方法在 NLP 任務中的應用,還通過時間線展示了 DA 方法的發(fā)展。
介紹了數(shù)據(jù)增強的一些相關主題,包括預訓練語言模型、對比學習、相似數(shù)據(jù)操作方法、生成對抗網(wǎng)絡和對抗攻擊。目標是將數(shù)據(jù)增強與其他主題聯(lián)系起來,同時展示它們的不同之處。
列出了在 NLP 數(shù)據(jù)增強中觀察到的一些挑戰(zhàn),包括理論敘述和通用方法,揭示了數(shù)據(jù)增強未來的發(fā)展方向。
公開資源
一些有用的api:
除了英語,也有其他語種的工具資源:
總結
在本文中,作者對自然語言處理的數(shù)據(jù)增強進行了全面和結構化的調(diào)研。為了檢驗 DA 的性質(zhì),根據(jù)增強數(shù)據(jù)的多樣性將 DA 方法分為三類,包括改寫、噪聲和采樣。這些類別有助于理解和開發(fā) DA 方法。
還介紹了 DA 方法的特點及其在 NLP 任務中的應用,然后通過時間線對其進行了分析。
此外,還介紹了一些技巧和策略,以便研究人員和從業(yè)者可以參考以獲得更好的模型性能。最后,我們將 DA 與一些相關主題區(qū)分開來,并概述了當前的挑戰(zhàn)以及未來研究的機遇。
審核編輯:劉清
-
計算機視覺
+關注
關注
9文章
1705瀏覽量
46472 -
自然語言處理
+關注
關注
1文章
625瀏覽量
13923 -
nlp
+關注
關注
1文章
490瀏覽量
22414
原文標題:NLP中關于數(shù)據(jù)增強的最新綜述
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
全面擁抱Transformer:NLP三大特征抽取器(CNNRNNTF)比較
MOS管驅動電路綜述
數(shù)據(jù)融合技術綜述
NLP的介紹和如何利用機器學習進行NLP以及三種NLP技術的詳細介紹

NLP-Progress庫NLP的最新數(shù)據(jù)集、論文和代碼
NLP 2019 Highlights 給NLP從業(yè)者的一個參考
一種單獨適配于NER的數(shù)據(jù)增強方法
NLP事件抽取綜述之挑戰(zhàn)與展望

基于圖像的數(shù)據(jù)增強方法發(fā)展現(xiàn)狀綜述

評論