在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對抗樣本真的是bug嗎?對抗樣本不是Bug, 它們是特征

DPVg_AI_era ? 來源:lq ? 2019-05-10 08:54 ? 次閱讀

對抗樣本不是Bug, 它們實際上是有意義的數(shù)據(jù)分布特征。來自MIT的最新研究對神經(jīng)網(wǎng)絡(luò)的對抗樣本問題給出了非常新穎的解釋和實驗論證。

“對抗樣本”(adversarial examples)幾乎可以說是機(jī)器學(xué)習(xí)中的一大“隱患”,其造成的對抗攻擊可以擾亂神經(jīng)網(wǎng)絡(luò)模型,造成分類錯誤、識別不到等錯誤輸出。

對抗樣本揭示了神經(jīng)網(wǎng)絡(luò)的脆弱性和不可解釋性。例如,一張簡單的涂鴉貼紙(對抗性補(bǔ)丁)就可能“迷惑”自動駕駛系統(tǒng),導(dǎo)致AI模型對交通標(biāo)志被錯誤分類,甚至將自動駕駛系統(tǒng) “騙” 進(jìn)反車道;也可能“欺騙”AI檢測系統(tǒng),讓最先進(jìn)的檢測系統(tǒng)也無法看到眼前活生生的人。

但是,對抗樣本真的是bug嗎?

來自MIT的多位研究人員給出了否定的回答。他們通過一系列嚴(yán)謹(jǐn)?shù)膶嶒灒C明:對抗樣本不是Bug, 它們是特征(Adversarial Examples Are Not Bugs, They Are Features)。

論文地址:

https://arxiv.org/pdf/1905.02175.pdf

這篇觀點新穎的論文今天在Reddit上引起熱議,讀者紛紛表示論文“巧妙又簡單,怎么沒人早些想到這個方向”,“非常有趣的工作”……

實驗的一個理念圖

作者表示:“我們證明了對抗性樣本并不是奇怪的像差或隨機(jī)的偽影,相反,它們實際上是有意義的數(shù)據(jù)分布特征(即它們有助于模型泛化),盡管這些特征不易覺察。”

研究人員通過一系列實驗證明:

(a)你可以根據(jù)嵌入到錯誤標(biāo)記的訓(xùn)練集中的這些不易覺察的特征學(xué)習(xí),并泛化到真正的測試集;

(b)你可以刪除這些不易覺察的特征,并“穩(wěn)健地”泛化到真正的測試集(標(biāo)準(zhǔn)訓(xùn)練)。

接下來,新智元帶來這篇論文的解讀。

一顆叫做Erm的遙遠(yuǎn)星球,生活著Nets族人

過去幾年里,對抗樣本在機(jī)器學(xué)習(xí)社區(qū)中得到了極大的關(guān)注。關(guān)于如何訓(xùn)練模型使它們不易受到對抗樣本攻擊的工作有很多,但所有這些研究都沒有真正地面對這樣一個基本問題:為什么這些對抗樣本會出現(xiàn)?

到目前為止,流行的觀點一直是,對抗樣本源于模型的“怪異模式”,只要我們在更好的訓(xùn)練算法和更大規(guī)模的數(shù)據(jù)集方面取得足夠的進(jìn)展,這些bug最終就會消失。常見的觀點包括,對抗樣本是輸入空間高維的結(jié)果,或者是有限樣本現(xiàn)象的結(jié)果。

本文將提供一個新的視角,解釋出現(xiàn)對抗樣本的原因。不過,在深入討論細(xì)節(jié)之前,讓我們先給大家講一個小故事:

一顆叫做Erm的星球

我們的故事開始于Erm,這是一個遙遠(yuǎn)的星球,居住著一個被稱為Nets的古老的外星種族。

Nets是一個奇怪的物種:每個人在社會等級中的位置取決于他們將32×32像素圖像(對Nets來說毫無意義)分類為10個完全任意的類別的能力。

這些圖像來自一個名為See-Far的絕密數(shù)據(jù)集,Nets族的居民們是無法事先看到數(shù)據(jù)集中的圖像的。

隨著Nets人的成長和智慧的增長,他們開始在See-Far中發(fā)現(xiàn)越來越多的模式。這些外星人發(fā)現(xiàn)的每一個新模式都能幫助他們更準(zhǔn)確地對數(shù)據(jù)集進(jìn)行分類。由于提高分類精度具有巨大的社會價值,外星人為最具預(yù)測性的圖像模式賦予了一個名稱——TOOGIT。

一個TOOGIT, 可以高度預(yù)測一張 "1" 的圖像。Nets對TOOGIT非常敏感。

最強(qiáng)大的外星人非常善于發(fā)現(xiàn)模式,因此他們對TOOGIT在See-Far圖像中的出現(xiàn)極為敏感。

不知何故(也許是在尋找See-Far分類技巧),一些外星人獲得了人類寫的機(jī)器學(xué)習(xí)論文。有一個圖像特別引起了外星人的注意:

一個 "對抗樣本"?

這個圖是比較簡單的,他們認(rèn)為:左邊是一個“2”,中間有一個GAB pattern,表明圖案是“4”——不出意料,左邊的圖片添加一個GAB,導(dǎo)致了一個新圖像,在Nets看來,這個新圖像就對應(yīng)于“4”類別。

根據(jù)論文,原始圖像和最終圖像明明完全不同,卻被分類為相同。Nets人對此無法理解。困惑之余,他們翻遍了人類的論文,想知道還有哪些有用的模式是人類沒有注意到的……

我們可以從Erm星球?qū)W到什么?

正如Erm這個名字所暗示的,這個故事不是只想說外星人和他們奇怪的社會結(jié)構(gòu):Nets發(fā)展的方式喻指我們訓(xùn)練機(jī)器學(xué)習(xí)模型的方式。

尤其是,我們最大限度地提高了準(zhǔn)確性,而沒有納入關(guān)于分類的類、物理世界或其他與人類相關(guān)的概念的許多先前背景。

這個故事的結(jié)果是,外星人能夠意識到,人類認(rèn)為毫無意義的對抗性擾動(adversarial perturbation),實際上是對See-Far分類至關(guān)重要的模式。因此,Nets的故事應(yīng)該讓我們思考:

對抗性擾動真的是不自然、而且沒有意義的嗎?

一個簡單的實驗

為了研究這個問題,我們先做了一個簡單的實驗:

我們從一個標(biāo)準(zhǔn)數(shù)據(jù)集(如CIFAR10)的訓(xùn)練集中的圖像開始:

我們從每個(x, y)到“下一個”類y+1(或0,如果y是最后一個類),合成一個有針對性的對抗性樣本

然后,我們通過將這些對抗性樣本與其對應(yīng)的目標(biāo)類進(jìn)行標(biāo)記,構(gòu)建一個新的訓(xùn)練集:

現(xiàn)在,由此產(chǎn)生的訓(xùn)練集與原始訓(xùn)練集相比,不知不覺地受到了干擾,但是標(biāo)簽已經(jīng)改變了——因此,對人類來說,它的標(biāo)簽看起來是完全錯誤。事實上,這些錯誤的標(biāo)簽甚至與“置換”假設(shè)一致(即每只狗都被貼上貓的標(biāo)簽,每只貓都被貼上鳥的標(biāo)簽,等等)。

我們用“錯誤標(biāo)記的數(shù)據(jù)集”來訓(xùn)練一個新的分類器(不一定與第一個分類器的架構(gòu)相同)。這個分類器在原始(未修改的)測試集(即標(biāo)準(zhǔn)CIFAR-10測試集)上的表現(xiàn)如何呢?

值得注意的是,我們發(fā)現(xiàn)得到的分類器實際上只有中等的精度(例如CIFAR上,精度只有44%)!盡管訓(xùn)練輸入僅通過不可察覺的擾動與它們的“真實”標(biāo)簽相關(guān)聯(lián),并且與通過所有可見特性匹配的不同(現(xiàn)在是不正確的)標(biāo)簽相關(guān)聯(lián)。

這是怎么回事?

對抗樣本概念模型

剛剛描述的實驗建立了標(biāo)準(zhǔn)模型的對抗性擾動,作為目標(biāo)類的模式預(yù)測。也就是說,僅訓(xùn)練集中的對抗性干擾就能對測試集做出適度準(zhǔn)確的預(yù)測。

從這個角度來看,人們可能會想:也許這些模式與人類用來對圖像進(jìn)行分類的模式(比如耳朵、胡須、鼻子)并沒有本質(zhì)上的不同!

這正是我們的假設(shè)——存在著各種各樣的輸入特征可以預(yù)測標(biāo)簽,而其中只有一些特征是人類可以察覺的。

更準(zhǔn)確地說,我們認(rèn)為數(shù)據(jù)的預(yù)測特征可以分為“robust”和“non-robust”特征。

Robust features(魯棒性特征)對應(yīng)于能夠預(yù)測真實標(biāo)簽的模式,即使在某些人為預(yù)先定義的擾動集造成對抗性擾動的情況下。

相反,non-robust features(非魯棒性特征)對應(yīng)的模式雖然具有預(yù)測性,但在預(yù)先定義的擾動集會被攻擊者“翻轉(zhuǎn)”,造成指示的分類錯誤。(正式的定義請參閱論文)

由于我們總是只考慮不影響人類分類性能的擾動集,所以我們希望人類只依賴于robust features。然而,當(dāng)目標(biāo)是最大化 (標(biāo)準(zhǔn)) 測試集的準(zhǔn)確性時,non-robust features 可以和 robust features 一樣有用。

事實上,這兩種類型的特性是完全可以互換的。如下圖所示:

從這個角度來看,本文中的實驗描述了一些相當(dāng)簡單的過程。在原始訓(xùn)練集中,輸入的魯棒性和非魯棒性特征都是可以預(yù)測的。當(dāng)實驗中加入小的對抗性擾動時,不能顯著影響魯棒性特征,但對非魯棒性特征的改變是允許的。例如,每只狗的圖像現(xiàn)在都保留了狗的魯棒性特征(因此這些圖像在我們看來是狗),但非魯棒性特征更接近貓。

在重新標(biāo)記訓(xùn)練集之后,我們的設(shè)置使魯棒性特征實際上指向了錯誤的方向(即具有 “狗” 的魯棒性特征的圖片被標(biāo)記為 “貓”),在這種情況下,實際上只有非魯棒特征為泛化提供了正確的指導(dǎo)。

總之,魯棒和非魯棒特征都可以用于預(yù)測訓(xùn)練集,但只有非魯棒性特征才會導(dǎo)致對原始測試集的泛化:

因此,在該數(shù)據(jù)集上訓(xùn)練的模型實際上能夠泛化到標(biāo)準(zhǔn)測試集的事實表明:存在足以用其實現(xiàn)良好泛化的非魯棒性特征。而且,即使有強(qiáng)大的魯棒性預(yù)測特征的存在,深度神經(jīng)網(wǎng)絡(luò)仍要依賴于這些非魯棒性特征,。

高魯棒性模型能否學(xué)習(xí)高魯棒性特征?

實驗證明,對抗性擾動不是毫無意義的信號,而是直接對應(yīng)于對泛化至關(guān)重要的擾動性特征。同時,關(guān)于對抗性示例相關(guān)文章顯示,通過強(qiáng)大的優(yōu)化,可以獲得面向?qū)剐詳_動更具魯棒性的模型。

因此,一個自然而然的問題就是:能否驗證高魯棒性模型實際上依賴于高魯棒性的特征?為了測試這一點,我們建立了一種方法,盡量將輸入僅限于模型敏感的特征(對于深度神經(jīng)網(wǎng)絡(luò)而言,就是倒數(shù)第二層激活的特征)。由此創(chuàng)建一個新的訓(xùn)練集,該訓(xùn)練集僅限于包含已經(jīng)訓(xùn)練過的高魯棒性模型使用的特征:

然后,我們在沒有對抗訓(xùn)練的情況下在結(jié)果數(shù)據(jù)集上訓(xùn)練模型,發(fā)現(xiàn)得到的模型具有非常高的準(zhǔn)確性和魯棒性!這與標(biāo)準(zhǔn)訓(xùn)練集的訓(xùn)練形成鮮明對比,后者訓(xùn)練出的模型雖然準(zhǔn)確,但非常脆弱。

CIFAR-10 測試集(D)上測試的標(biāo)準(zhǔn)精度和魯棒性精度。左:在 CIFAR-10(D)上正常訓(xùn)練;中:在 CIFAR-10(D)上的對抗性訓(xùn)練;右:在我們重新構(gòu)建的數(shù)據(jù)集上正常訓(xùn)練。

結(jié)果表明,魯棒性(和非魯棒性)實際上可以作為數(shù)據(jù)集本身的屬性出現(xiàn)。特別是,當(dāng)我們從原始訓(xùn)練集中去除了非魯棒性特征時,可以通過標(biāo)準(zhǔn)(非對抗性)訓(xùn)練獲得高魯棒性的模型。這進(jìn)一步證明,對抗性實例是由于非魯棒性特征而產(chǎn)生的,而且不一定與標(biāo)準(zhǔn)訓(xùn)練框架相關(guān)聯(lián)。

可遷移性

這一變化的直接后果是,對抗性實例的可轉(zhuǎn)移性不再需要單獨的解釋。具體來說,既然我們將對抗性漏洞視為源自數(shù)據(jù)集特征的直接產(chǎn)物(而不是訓(xùn)練單個模型時的個別現(xiàn)象),我們自然希望類似的表達(dá)模型也能夠找到并利用這些特征來實現(xiàn)分類精度的提升。

為了進(jìn)一步研究這個想法,我們研究了在不同架構(gòu)下對類似非魯棒性特征的學(xué)習(xí),與這些特征間的對抗性實例的可轉(zhuǎn)移性的相關(guān)性:

我們生成了在第一個實驗中描述的數(shù)據(jù)集(用目標(biāo)類別標(biāo)記的對抗性實例的訓(xùn)練集),使用 ResNet-50 構(gòu)建對抗性實例。我們可以將結(jié)果數(shù)據(jù)集視為將所有 ResNet-50 的非強(qiáng)健功能 “翻轉(zhuǎn)” 到目標(biāo)類別上。然后在此數(shù)據(jù)集上訓(xùn)練上圖中的五個架構(gòu),并在真實測試集上記錄泛化性能:這與測試架構(gòu)僅用 ResNet-50 的非魯棒性特征進(jìn)行泛化的程度相對應(yīng)。

結(jié)果表明,正如本文關(guān)于對抗性實例的新觀點中所述,模型能夠獲得 ResNet-50 數(shù)據(jù)集引入的非魯棒性特征,這與 ResNet-50 到標(biāo)準(zhǔn)模型之間的對抗性可轉(zhuǎn)移性有很強(qiáng)的相關(guān)性。

啟示

本文中的討論和實驗將對抗性實例視為純粹以人為中心的現(xiàn)象。從分類任務(wù)表現(xiàn)的角度來看,模型沒有理由更偏好魯棒性特征。畢竟,魯棒性的概念是人類指定的。因此,如果我們希望模型主要依賴于魯棒性特征,需要通過將先驗知識結(jié)合到框架或訓(xùn)練過程中來明確解釋這一點。

從這個角度來看,對抗性訓(xùn)練(以及更廣泛的魯棒性優(yōu)化)可以被認(rèn)為是一種將所需的不變性結(jié)合到學(xué)習(xí)模型中的工具。比如,高魯棒性訓(xùn)練可以被視為通過不斷地 “翻轉(zhuǎn)” 來破壞非魯棒特征的預(yù)測性,從而引導(dǎo)訓(xùn)練的模型不再依賴非魯棒性特征。

同時,在設(shè)計可解釋性方法時,需要考慮標(biāo)準(zhǔn)模型對非魯棒性特征的依賴性。特別是,對標(biāo)準(zhǔn)訓(xùn)練模型預(yù)測的任何 “解釋” 應(yīng)該選擇要么突出這些特征(會導(dǎo)致對人類而言的意義不明確),要么全部隱藏(會導(dǎo)致不完全忠實于模型的決策過程)。因此,如果我們想要獲得既對人類有意義,又忠實于模型可解釋性方法,那么僅靠訓(xùn)練后的處理基本上是不行的,還需要在訓(xùn)練過程中進(jìn)行必要的干預(yù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:Reddit熱議MIT新發(fā)現(xiàn):對抗樣本不是bug,而是有意義的數(shù)據(jù)特征!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    對抗樣本是如何在不同的媒介上發(fā)揮作用的,為什么保護(hù)系統(tǒng)很難對抗它們?

    我們發(fā)現(xiàn),對抗性訓(xùn)練和防御性精煉都意外地執(zhí)行了一種梯度掩碼。這兩種算法都沒有明確地被設(shè)計來執(zhí)行梯度掩碼,但是當(dāng)算法被訓(xùn)練來保護(hù)自己并且沒有給出具體的指令時,梯度掩碼顯然是一種機(jī)器學(xué)習(xí)算法可以相對容易地發(fā)明出的防御措施。
    的頭像 發(fā)表于 04-16 15:36 ?7862次閱讀

    機(jī)器學(xué)習(xí)算法之基于黑盒語音識別的目標(biāo)對抗樣本

    本文提出了一種將遺傳算法和梯度估計結(jié)合的黑盒攻擊方法,使之可以產(chǎn)生比單獨算法更好的對抗樣本.引入了一個新的黑盒攻擊領(lǐng)域,特別是在深層非線性的 ASR 系統(tǒng)中可以輸出任意長度的轉(zhuǎn)換。作者提出了一種將遺傳算法和梯度估計結(jié)合的黑盒攻擊方法,使之可以產(chǎn)生比單獨算法更好的
    發(fā)表于 05-28 06:27 ?3631次閱讀

    原來“bug真的bug而來

    俗話說的好,不怕出bug,就怕不知道哪里出bug,但是今天我不是和大家將怎么找bug,而是bug的來源。
    的頭像 發(fā)表于 10-22 14:20 ?3646次閱讀

    如何用對抗樣本修改圖片,誤導(dǎo)神經(jīng)網(wǎng)絡(luò)指鹿為馬

    黑盒攻擊則是在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為黑箱時,僅通過模型的輸入和輸出,逆推生成對抗樣本。下圖左圖為白盒攻擊(自攻自受),右圖為黑盒攻擊(用他山之石攻此山之玉)。
    的頭像 發(fā)表于 11-22 09:49 ?5548次閱讀

    Reddit熱議MIT新發(fā)現(xiàn) 對抗樣本是有意義的數(shù)據(jù)特征

    對抗樣本不是Bug, 它們實際上是有意義的數(shù)據(jù)分布特征。來自MIT的最新研究對神經(jīng)網(wǎng)絡(luò)的對抗
    的頭像 發(fā)表于 05-13 16:01 ?2192次閱讀
    Reddit熱議MIT新發(fā)現(xiàn) <b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>是有意義的數(shù)據(jù)<b class='flag-5'>特征</b>

    基于動量的迭代算法來構(gòu)造對抗擾動以攻擊黑盒和白盒模型

    我們提出在基礎(chǔ)的迭代式攻擊方法上加入動量項,避免在迭代過程中可能出現(xiàn)的更新震蕩和落入較差的局部極值,得到能夠成功欺騙目標(biāo)網(wǎng)絡(luò)的對抗樣本。由于迭代方法在迭代過程中的每一步計算當(dāng)前的梯度,并貪戀地將梯度
    的頭像 發(fā)表于 05-15 17:44 ?6070次閱讀

    人工智能:機(jī)器學(xué)習(xí)模型存在著對抗樣本的安全威脅

    近年來,隨著人工智能的蓬勃發(fā)展,機(jī)器學(xué)習(xí)技術(shù)在網(wǎng)絡(luò)入侵檢測領(lǐng)域得到了廣泛的應(yīng)用。然而,機(jī)器學(xué)習(xí)模型存在著對抗樣本的安全威脅,導(dǎo)致該類網(wǎng)絡(luò)入侵檢測器在對抗環(huán)境中呈現(xiàn)出特定的脆弱性。本文主要概述由
    的頭像 發(fā)表于 08-27 16:10 ?3853次閱讀
    人工智能:機(jī)器學(xué)習(xí)模型存在著<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>的安全威脅

    深度學(xué)習(xí)模型的對抗攻擊及防御措施

    ,進(jìn)而影響了模型的安全性。在簡述對抗樣本的概念及其產(chǎn)生原因的基礎(chǔ)上,分析對抗攻擊的主要攻擊方式及目標(biāo),研究具有代表性的經(jīng)典對抗樣本生成方法。
    發(fā)表于 03-12 13:45 ?77次下載
    深度學(xué)習(xí)模型的<b class='flag-5'>對抗</b>攻擊及防御措施

    基于生成器的圖像分類對抗樣本生成模型

    ,并保證攻擊成功率。模型將對抗樣本生成的過程視為對原圖進(jìn)行圖像増強(qiáng)的操作引入生成對抗網(wǎng)絡(luò),并改進(jìn)感知損失函數(shù)以增加對抗樣本與原圖在內(nèi)容與
    發(fā)表于 04-07 14:56 ?2次下載
    基于生成器的圖像分類<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>生成模型

    針對多媒體模型的對抗樣本生成與防御方法

    近年來,隨著以深度學(xué)習(xí)為代表的人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,人工智能正深刻地改變著社會生活的各面。然而,人工智能模型也容易受到來自精心構(gòu)造的¨對抗樣木”的攻擊。通過在干凈的圖像或視頻樣本上添加
    發(fā)表于 04-08 09:41 ?13次下載
    針對多媒體模型的<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>生成與防御方法

    基于深度學(xué)習(xí)的自然語言處理對抗樣本模型

    深度學(xué)習(xí)模型被證明存在脆弱性并容易遭到對抗樣本的攻擊,但目前對于對抗樣本的研究主要集中在計算機(jī)視覺領(lǐng)域而忽略了自然語言處理模型的安全問題。針對自然語言處理領(lǐng)域冋樣面臨
    發(fā)表于 04-20 14:36 ?39次下載
    基于深度學(xué)習(xí)的自然語言處理<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>模型

    GAN圖像對抗樣本生成方法研究綜述

    為了提高生成對抗網(wǎng)絡(luò)模型對抗樣本的多樣性和攻擊成功率,提出了一種GAN圖像對抗樣本生成方法。首先,利用原始
    發(fā)表于 04-28 16:39 ?72次下載
    GAN圖像<b class='flag-5'>對抗</b><b class='flag-5'>樣本</b>生成方法研究綜述

    如何解決樣本不均的問題?

    樣本不均的問題大家已經(jīng)很常見了,我們總是能看到某一個類目的數(shù)量遠(yuǎn)高于其他類目,舉個例子,曝光轉(zhuǎn)化數(shù)遠(yuǎn)低于曝光未轉(zhuǎn)化數(shù)。樣本不均嚴(yán)重影響了模型的效果,甚至影響到我們對模型好壞的判斷,因為模型對占比比
    的頭像 發(fā)表于 05-26 09:19 ?2575次閱讀
    如何解決<b class='flag-5'>樣本不</b>均的問題?

    基于生成對抗網(wǎng)絡(luò)的異常檢測方法

    ,因為它們往往會偏向保證多數(shù)類的準(zhǔn)確率。為此,本文提出了一種基于生成對抗網(wǎng)絡(luò)(GAN)的異常檢測方法。這個方法中的生成器結(jié)構(gòu)是“編碼器–解碼器–編碼器”的三子網(wǎng),并且訓(xùn)練該生成器只需要從正常樣本中提
    發(fā)表于 04-06 16:06 ?3812次閱讀

    基于先驗指導(dǎo)的對抗樣本初始化方法提升FAT效果

    這種現(xiàn)象最先由Wong等人發(fā)現(xiàn),隨后他們又發(fā)現(xiàn)使用FGSM生成對抗樣本時使用隨機(jī)初始化可以延緩災(zāi)難性遺忘發(fā)生的時間,但是隨著訓(xùn)練的進(jìn)行,災(zāi)難性遺忘還是無法避免。
    的頭像 發(fā)表于 12-19 09:42 ?1056次閱讀
    主站蜘蛛池模板: 人人插人人费 | 一级特黄aaa大片 | 亚洲 美腿 欧美 偷拍 | 美女扒尿口给男人桶到爽 | 午夜在线观看视频在线播放版 | tube69欧美最新片 | 夜夜五月天 | 人与禽一级一级毛片 | 成人免费看黄网站无遮挡 | 国产精品久久久久久久人热 | 88xx成人永久免费观看 | 国产精品福利视频手机免费观看 | 欧美一区中文字幕 | 四虎影院国产精品 | 免费h视频在线观看 | 欧美精品黑人性xxxx | 在线观看色视频 | 簧片地址| 爱操成人网 | 手机看片国产高清 | 亚洲怡红院在线观看 | 一级毛片一片毛 | 精品玖玖 | 女性一级全黄生活片免费看 | 色综合小说天天综合网 | 欧美性天堂 | 色多多在线| 特黄一级视频 | 亚洲国产成人在线 | 丁香六月婷婷七月激情 | 婷婷久久综合九色综合98 | 成人欧美一区二区三区黑人免费 | 极品色天使在线婷婷天堂亚洲 | 最新版天堂资源中文官网 | 天天干天天摸天天操 | 午夜精品久久久久久久第一页 | 婷婷久月 | 天天操天天搞 | 天堂在线视频 | 丁香婷婷色综合 | 免费观看在线永久免费xx视频 |