在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹NMT模型魯棒性對(duì)抗訓(xùn)練的三部曲

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:天宏NLP ? 2023-02-20 10:35 ? 次閱讀

本文主要介紹NMT模型魯棒性的相關(guān)改進(jìn)工作,介紹一下對(duì)抗訓(xùn)練的三部曲,一作皆是ChengYong,分別中了2018,2019和2020的ACL。

第一項(xiàng)工作為 Towards Robust Neural Machine Translation (ACL 2018)

本文的問(wèn)題引入為一個(gè)小實(shí)驗(yàn),即將機(jī)器翻譯的源句進(jìn)行微小擾動(dòng)(同義詞替換),69.74%的翻譯句子也隨之改變,并且原始輸入和擾動(dòng)輸入對(duì)應(yīng)的翻譯句間BLEU僅為79.01,因此,作者希望通過(guò)對(duì)抗訓(xùn)練來(lái)加強(qiáng)Encoder和Decoder的抗干擾能力。

5c4f9db4-afe5-11ed-bfe3-dac502259ad0.png

具體做法如上圖,首先是噪聲的引入,作者提出兩種方式:

1)詞匯級(jí)別,計(jì)算余弦相似度進(jìn)行同義詞替換;

2)特征級(jí)別,在詞向量上加入高斯噪聲。

然后是噪聲數(shù)據(jù)的使用,對(duì)應(yīng)上圖中三個(gè)損失函數(shù):

1)Ltrue(x, y)是正常訓(xùn)練NMT的損失函數(shù);

2)Lnoisy(x', y)是加強(qiáng)Decoder的去噪能力,即對(duì)應(yīng)有噪聲的Hx',Decoder也能得到正確的輸出;

3)Linv(x, x'),旨在加強(qiáng)Encoder的去噪能力,即針對(duì)噪聲數(shù)據(jù)x',Encoder得到的Hx'也應(yīng)與原表征Hx相近,訓(xùn)練過(guò)程采用了min-max two-player策略,引入Discriminator進(jìn)行交互對(duì)抗訓(xùn)練,Encoder得到Hx和Hx'應(yīng)該盡可能相似騙過(guò)Discriminator,而Discriminator則要分開(kāi)有、無(wú)噪聲的數(shù)據(jù),兩者迭代訓(xùn)練以加強(qiáng)Encoder對(duì)噪聲數(shù)據(jù)x'的建模能力。

文章優(yōu)勢(shì)在于不改變模型結(jié)構(gòu),可拓展到任意噪聲干擾或是針對(duì)特定任務(wù)進(jìn)行設(shè)計(jì),如作者對(duì)輸入數(shù)據(jù)進(jìn)行刪除、替換等token級(jí)噪聲時(shí),發(fā)現(xiàn)使用詞匯級(jí)別噪聲的引入訓(xùn)練的模型更魯棒。

第二項(xiàng)工作為 Robust Neural Machine Translation with Doubly Adversarial Inputs (ACL 2019)

這項(xiàng)工作不同于上文的模型無(wú)關(guān),而是將NMT看成“白盒”,從而基于梯度生成對(duì)抗輸入,文章的核心思想就是下面這條式子,其中x',x分別代表有無(wú)噪聲的數(shù)據(jù),R(·)為相似性度量,后面的是負(fù)對(duì)數(shù)Loss,通俗來(lái)講就是找到噪聲不是太大的x'(保證x'與x語(yǔ)義相近),使得模型的Loss最大,這樣才能最有效地加強(qiáng)模型魯棒性。

5c7ebaea-afe5-11ed-bfe3-dac502259ad0.png

具體做法分為兩部分,分別是Encoder攻擊和Decoder防御。在Encoder端,x為Encoder的輸入,模型會(huì)算出某個(gè)詞表征xi的梯度gxi,然后在詞表中找出使Loss最大的x替換原有的詞xi,做法是在詞典中計(jì)算表征“e(x)-e(xi)”與gxi的相似度,使相似度最大的xi'為所得。同時(shí),噪聲xi'不應(yīng)與原始xi差太遠(yuǎn),作者使用了Masked LM提取候選詞,在原句中,會(huì)將需要替換的詞先mask,然后選擇預(yù)測(cè)的topk作為候選項(xiàng),至于哪些詞會(huì)被mask或替換則為隨機(jī)均勻采樣。

5c9792a4-afe5-11ed-bfe3-dac502259ad0.png

在Decoder端,z為Decoder的輸入,與Encoder中的噪聲xi'類似,以同樣的方法得到zi',但針對(duì)zi的采樣與xi有關(guān),即xi隨機(jī)采樣,zi需要大概率在xi替換的同樣位置進(jìn)行替換。因此,回望整個(gè)訓(xùn)練方式,Encoder的作用是找到使梯度最大的xi'擾亂模型,Decoder的作用是即使輸入為zi',仍能輸入正確的結(jié)果,具有一定魯棒性。

我覺(jué)得本文有兩點(diǎn)值得思考,首先是基于梯度最大來(lái)找噪聲詞,能夠更有力的對(duì)模型魯棒能力發(fā)起攻擊,其實(shí)這個(gè)可以更進(jìn)一步,Encoder輸入中需要被替換的詞并非隨機(jī)采樣,而是找使Loss最大的詞,相關(guān)文章改進(jìn)CE Loss為Focal Loss也就是這個(gè)思想,我們可以直覺(jué)判斷,模型建模較好的是高頻詞,建模不好的是低頻詞,低頻詞的Loss比較大,我們?cè)诖驦oss的基礎(chǔ)上再找大梯度,這樣攻擊效果更強(qiáng)力,同時(shí)可以提高模型對(duì)低頻詞的魯棒性。第二點(diǎn)是作者對(duì)xi的替換處理,還要回詞典中尋找進(jìn)行詞替換,這樣未免更加麻煩了,為什么不在一定范圍內(nèi),直接找梯度最大的向量進(jìn)行替換了呢?如果怕語(yǔ)義信息不相似,縮小相似度量范圍就好了,這樣更方便。

第三項(xiàng)工作為 AdvAug: Robust Adversarial Augmentation for Neural Machine Translation (ACL 2020)

這項(xiàng)工作是在第二項(xiàng)的基礎(chǔ)上進(jìn)行了數(shù)據(jù)增強(qiáng)的改進(jìn),采用的方法為線性插值,首先針對(duì)原始數(shù)據(jù)(x, y),作者用第二項(xiàng)工作的方法造出一堆噪聲數(shù)據(jù),然后對(duì)噪聲數(shù)據(jù)進(jìn)行線性插值生成更多的偽數(shù)據(jù),令人比較奇怪的是,作者對(duì)不同的parallel data pair同樣進(jìn)行了線性插值,可能兩句話雖不同含義,但是插值后在向量空間,源句和目標(biāo)句也能表達(dá)類似語(yǔ)義?

5cb5247c-afe5-11ed-bfe3-dac502259ad0.png


5cd27d56-afe5-11ed-bfe3-dac502259ad0.png







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ACL
    ACL
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    12359

原文標(biāo)題:NMT對(duì)抗訓(xùn)練的三部曲

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    油煙機(jī)選購(gòu)三部曲

    油煙機(jī)選購(gòu)三部曲廚房油煙含有20多萬(wàn)種有害物質(zhì),不僅會(huì)致癌,對(duì)腸道、大腦神經(jīng)等也有很大的危害。廚房油煙已成為人體健康的隱形殺手。而肩負(fù)清潔廚房油煙的重任,一款好的吸油煙機(jī)將為你的生活增色不少
    發(fā)表于 12-22 14:45

    三部曲(全書(shū))

    天嵌的三部曲。
    發(fā)表于 07-01 16:41

    冒泡排序法三部曲の一、冒泡排序原理版

    的類型就多進(jìn)行3x4次排序,為了解決這個(gè)問(wèn)題,對(duì)冒泡排序法進(jìn)行進(jìn)一步優(yōu)化,將在冒泡排序法三部曲の二、冒泡排序優(yōu)化中解決這個(gè)問(wèn)題。
    發(fā)表于 09-12 10:30

    冒泡排序法三部曲の冒泡排序原理版(一)

    ;, array[n]);printf("\t");//空格一次}return 0;}運(yùn)行結(jié)果上述代碼沒(méi)有問(wèn)題,但是如果數(shù)組是類似{1,2,3,5,4}這樣的類型就多進(jìn)行3x4次排序,為了解決這個(gè)問(wèn)題,對(duì)冒泡排序法進(jìn)行進(jìn)一步優(yōu)化,將在冒泡排序法三部曲の二、冒泡排序優(yōu)化中解決這個(gè)問(wèn)題。
    發(fā)表于 09-12 10:42

    冒泡排序法三部曲の二冒泡排序法的優(yōu)化

    本帖最后由 盧小二 于 2019-9-14 11:23 編輯 環(huán)境:VS2017C language在冒泡排序法三部曲の一冒泡排序法的原理之后,其實(shí)存在一些可優(yōu)化的問(wèn)題,首先就是假如是
    發(fā)表于 09-13 12:17

    榮耀Note9什么時(shí)候上市?榮耀三部曲華為榮耀Note9即將發(fā)布,配置、渲染圖、價(jià)格消息匯總

    喜歡全面屏新機(jī)?喜歡大屏手機(jī)?那這部6.6英寸的超大屏全面屏手機(jī)真的是不容錯(cuò)過(guò)。這就是華為即將發(fā)布的最新旗艦,榮耀三部曲之一的---榮耀Note 9。
    發(fā)表于 08-02 10:16 ?4050次閱讀

    是什么意思_Robust為什么翻譯成

    的定義 是什么意思?頭一次看到這個(gè)詞的你可能會(huì)想歪(邪惡的笑臉)。但其實(shí)
    發(fā)表于 11-29 09:08 ?12.8w次閱讀
    <b class='flag-5'>魯</b><b class='flag-5'>棒</b><b class='flag-5'>性</b>是什么意思_Robust為什么翻譯成<b class='flag-5'>魯</b><b class='flag-5'>棒</b><b class='flag-5'>性</b>

    存儲(chǔ)三部曲的第一——NAS

    目前數(shù)據(jù)存儲(chǔ)的形態(tài),主要就是SAN、NAS和OBJ這種。作為存儲(chǔ)三部曲的第一,先來(lái)說(shuō)說(shuō)我最喜歡的NAS。 NAS(Network Attached Storage),網(wǎng)絡(luò)附加存儲(chǔ)。簡(jiǎn)單的說(shuō)
    的頭像 發(fā)表于 12-03 14:11 ?3211次閱讀

    存儲(chǔ)三部曲最后一SAN的現(xiàn)狀如何?

    今天分享存儲(chǔ)三部曲的最后一,高冷的SAN。 SAN(Storage Area Network),存儲(chǔ)局域網(wǎng)絡(luò),一種主要基于FC(FibreChannel)的光纖通道存儲(chǔ)技術(shù),用于SAN中的存儲(chǔ)就是
    的頭像 發(fā)表于 12-03 14:15 ?2863次閱讀

    如何提高事件檢測(cè)(ED)模型和泛化能力?

    論文中指出,以往關(guān)于ED的工作都是考慮如何提升模型的性能,而較少考慮模型和泛化能力,作者將模型
    的頭像 發(fā)表于 12-31 10:21 ?3512次閱讀

    NLP中的對(duì)抗訓(xùn)練到底是什么

    簡(jiǎn)介 對(duì)抗訓(xùn)練是一種引入噪聲的訓(xùn)練方式,可以對(duì)參數(shù)進(jìn)行正則化,提升模型
    的頭像 發(fā)表于 01-18 17:17 ?3843次閱讀

    簡(jiǎn)單總結(jié)幾種NLP常用的對(duì)抗訓(xùn)練方法

    對(duì)抗訓(xùn)練本質(zhì)是為了提高模型,一般情況下在傳統(tǒng)訓(xùn)練
    的頭像 發(fā)表于 11-09 10:17 ?3516次閱讀
    簡(jiǎn)單總結(jié)幾種NLP常用的<b class='flag-5'>對(duì)抗</b><b class='flag-5'>訓(xùn)練</b>方法

    的含義以及如何提高模型

    的含義以及如何提高模型? 什么是
    的頭像 發(fā)表于 10-29 11:21 ?4358次閱讀

    在機(jī)器學(xué)習(xí)中的重要

    在機(jī)器學(xué)習(xí)領(lǐng)域,模型是指模型在面對(duì)輸入數(shù)據(jù)的擾動(dòng)、異常值、噪聲或對(duì)抗性攻擊時(shí),仍能保持性
    的頭像 發(fā)表于 11-11 10:19 ?1124次閱讀

    深度學(xué)習(xí)模型優(yōu)化

    。異常值和噪聲可能會(huì)誤導(dǎo)模型訓(xùn)練,導(dǎo)致模型在面對(duì)新數(shù)據(jù)時(shí)表現(xiàn)不佳。 數(shù)據(jù)標(biāo)準(zhǔn)化/歸一化 :將數(shù)據(jù)轉(zhuǎn)換到同一尺度上,有助于模型更好地學(xué)習(xí)數(shù)據(jù)的內(nèi)在規(guī)律,從而提高
    的頭像 發(fā)表于 11-11 10:25 ?907次閱讀
    主站蜘蛛池模板: 黄色有码视频 | 日韩一级欧美一级一级国产 | 色视频在线看 | 精品国产一区二区三区国产馆 | 97国产影院| 亚洲成a人片在线观看88 | 米奇影院777 | 欧美美女被日 | 婷婷99精品国产97久久综合 | 午夜宅男视频 | 男人的网址 | 色色色色色色色色色色色色 | 日本一二区视频 | 国产精品美女久久久久网 | 日本免费xxxx色视频 | 欧美性另类 | 色妇网 | 亚洲福利视频一区 | 色吧在线视频在线观看 | 婷婷综合五月中文字幕欧美 | 人人人人草 | 啪啪午夜免费 | 九九99久久精品午夜剧场免费 | 一区二区亚洲视频 | 亚洲精品电影天堂网 | 亚洲成人资源 | 波多久久夜色精品国产 | www.亚洲一区| 给我一个可以看片的www日本 | 国产午夜三区视频在线 | 丁香婷婷亚洲六月综合色 | 国产色综合天天综合网 | 欧美特黄特色aaa大片免费看 | 免费一级毛片 | 欧美日韩一卡2卡三卡4卡新区 | 巨尻在线观看 | www.91在线| 美女和帅哥在床上玩的不可描述 | 夜夜操天天干 | 午夜dy888理论 | 免费无码看av的网站 |