在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Adversarial T-shirt可讓你在AI目標(biāo)檢測系統(tǒng)中“消失無形”

如意 ? 來源:機(jī)器之心Pro ? 作者:機(jī)器之心Pro ? 2020-07-07 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于 AI 目標(biāo)檢測系統(tǒng)生成的對抗樣本可以使穿戴者面對攝像頭「隱身」。

由美國東北大學(xué)林雪研究組,MIT-IBM Watson AI Lab 和 MIT 聯(lián)合研發(fā)的這款基于對抗樣本設(shè)計(jì)的 T-shirt (adversarial T-shirt),讓大家對當(dāng)下深度神經(jīng)網(wǎng)絡(luò)的現(xiàn)實(shí)安全意義引發(fā)更深入的探討。目前該文章已經(jīng)被 ECCV 2020 會議收錄為 spotlight paper(焦點(diǎn)文章)。

在人臉識別和目標(biāo)檢測越來越普及的今天,如果說有一件衣服能讓你在 AI 檢測系統(tǒng)中「消失無形」,請不要感到驚訝。

熟悉Adversarial Machine Learning(對抗性機(jī)器學(xué)習(xí))的朋友可能不會覺得陌生,早在 2013 年由 Christian Szegedy 等人就在論文 Intriguing properties of neural networks 中首次提出了 Adversarial Examples(對抗樣本)的概念。而下面這張將大熊貓變成長臂猿的示例圖也多次出現(xiàn)在多種深度學(xué)習(xí)課程中。

很顯然,人眼一般無法感知到對抗樣本的存在,但是對于基于深度學(xué)習(xí)的 AI 系統(tǒng)而言,這些微小的擾動卻是致命的。

隨著科研人員對神經(jīng)網(wǎng)絡(luò)的研究,針對神經(jīng)網(wǎng)絡(luò)的 Adversarial Attack(對抗攻擊)也越來越強(qiáng)大,然而大多數(shù)的研究還停留在數(shù)字領(lǐng)域?qū)用妗iajun Lu 等人也在 2017 年認(rèn)為:現(xiàn)實(shí)世界中不需要擔(dān)心對抗樣本(NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles)。

他們通過大量實(shí)驗(yàn)證明,單純地將在數(shù)字世界里生成的對抗樣本通過打印再通過相機(jī)的捕捉,是無法對 AI 檢測系統(tǒng)造成影響的。這也證明了現(xiàn)實(shí)世界中的對抗樣本生成是較為困難的,主要原因歸于以下幾點(diǎn):

像素變化過于細(xì)微,無法通過打印機(jī)表現(xiàn)出來:我們熟知的對抗樣本,通常對圖像修改的規(guī)模有一定的限制,例如限制修改像素的個(gè)數(shù),或總體像素修改大小。而打印的過程往往無法對極小的像素值的改變做出響應(yīng),這使得很多對于對抗樣本非常有用的信息通過打印機(jī)的打印損失掉了。

通過相機(jī)的捕捉會再次改變對抗樣本:這也很好理解,因?yàn)橄鄼C(jī)自身成像的原理,以及對目標(biāo)捕捉能力的限制,相機(jī)無法將數(shù)字領(lǐng)域通過打印得到的結(jié)果再次完美地還原回?cái)?shù)字領(lǐng)域。

環(huán)境和目標(biāo)本身發(fā)生變化:這一點(diǎn)是至關(guān)重要的。對抗樣本在生成階段可能只考慮了十分有限的環(huán)境及目標(biāo)的多樣性,從而該樣本在現(xiàn)實(shí)中效果會大大降低。

近年來,Mahmood Sharif 等人(Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition.)首次在現(xiàn)實(shí)世界中,通過一個(gè)精心設(shè)計(jì)的眼鏡框,可以人臉檢測系統(tǒng)對佩戴者做出錯(cuò)誤的判斷。但這項(xiàng)研究對佩戴者的角度和離攝像頭的距離都有嚴(yán)格的要求。之后 Kevin Eykholt 等人(Robust Physical-World Attacks on Deep Learning Visual Classification)對 stop sign(交通停止符號)進(jìn)行了攻擊。通過給 stop sign 上面貼上生成的對抗樣本,可以使得 stop sign 被目標(biāo)檢測或分類系統(tǒng)識別成限速 80 的標(biāo)志!這也使得社會和媒體對神經(jīng)網(wǎng)絡(luò)的安全性引發(fā)了很大的探討。

然而,這些研究都還沒有觸及到柔性物體的對抗樣本生成。可以很容易地想象到,鏡框或者 stop sign 都是典型的剛性物體,不易發(fā)生形變且這個(gè)類別本身沒有很大的變化性,但是 T 恤不同,人類自身的姿態(tài),動作都會影響它的形態(tài),這對攻擊目標(biāo)檢測系統(tǒng)的人類類別產(chǎn)生了很大的困擾。

最近的一些工作例如 Simen Thys 等人(Fooling automated surveillance cameras: adversarial patches to attack person detection)通過將對抗樣本打印到一個(gè)紙板上掛在人身前也可以成功在特定環(huán)境下攻擊目標(biāo)檢測器,但是卻沒有 T 恤上的圖案顯得自然且對對抗樣本的形變和運(yùn)動中的目標(biāo)沒有進(jìn)行研究。

來自美國東北大學(xué),MIT-IBM Watson AI Lab 和 MIT 聯(lián)合研發(fā)的這款 Adversarial T-shirt 試圖解決上述問題,并在對抗 YOLOV2 和 Faster R-CNN(兩種非常普及的目標(biāo)檢測系統(tǒng))中取得了較好的效果。通過采集實(shí)驗(yàn)者穿上這件 Adversarial T-shirt 進(jìn)行多個(gè)場景和姿態(tài)的視頻采集,在 YOLOV2 中,可以達(dá)到 57% 的攻擊成功率,相較而言,YOLOV2 對沒有穿 Adversarial T-shirt 的人類目標(biāo)的檢測成功率為 97%。

設(shè)計(jì)原理

從多個(gè)已有的成功的攻擊算法中得到啟發(fā),研究者們通過一種叫 EOT (Expectation over Transformation) 的算法,將可能發(fā)生在現(xiàn)實(shí)世界中的多種 Transformation(轉(zhuǎn)換)通過模擬和求期望來擬合現(xiàn)實(shí)。這些轉(zhuǎn)換一般包括:縮放、旋轉(zhuǎn)、模糊、光線變化和隨機(jī)噪聲等。利用 EOT,我們可以對剛性物體進(jìn)行對抗樣本的生成。

但是當(dāng)研究者們僅僅使用 EOT,將得到的對抗樣本打印到一件 T 恤上時(shí),僅僅只能達(dá)到 19% 的攻擊成功率。這其中的主要原因就是文章上述提到的,人類的姿態(tài)會使對抗樣本產(chǎn)生褶皺,而這種褶皺是無法通過已有的 EOT 進(jìn)行模擬的。而對抗樣本自身也是非常脆弱的,一旦部分信息丟失往往會導(dǎo)致整個(gè)樣本失去效力。

基于以上觀察,研究者們利用一種叫做 thin plate spline (TPS) 的變化來模擬衣服的褶皺規(guī)律。這種變化需要記錄一些 anchor points(錨點(diǎn))數(shù)據(jù)來擬合變化。于是研究者將一個(gè)棋盤格樣式的圖案打印到 T 恤上來記錄棋盤格中的每個(gè)方塊角的坐標(biāo)信息,如下圖所示:

Adversarial T-shirt可讓你在AI目標(biāo)檢測系統(tǒng)中“消失無形”

這些錨點(diǎn)的坐標(biāo)可以通過特定的算法自動得到無需手動標(biāo)記。這樣一個(gè)人工構(gòu)建的 TPS 變化被加入了傳統(tǒng)的 EOT 算法。這使得生成的對抗樣本具備抗褶皺擾動的能力。

除此之外,研究者們還針對光線和攝像頭可能引起的潛在變化利用一種色譜圖進(jìn)行的模擬,如下圖所示:(a)數(shù)字領(lǐng)域中的色譜圖;(b)該圖通過打印機(jī)打印到 T 恤只會在通過相機(jī)捕捉到的結(jié)果;(c)通過映射 a-b 學(xué)到的一種色彩變換。

Adversarial T-shirt可讓你在AI目標(biāo)檢測系統(tǒng)中“消失無形”

基于學(xué)習(xí)出的色彩變化系統(tǒng),使得生成的對抗樣本能最大限度的接近現(xiàn)實(shí)。最終該方法的整體框架如下:

Adversarial T-shirt可讓你在AI目標(biāo)檢測系統(tǒng)中“消失無形”

通過增強(qiáng)的 EOT 和顏色轉(zhuǎn)換系統(tǒng),最小化 YOLOV2 的檢測置信度,最終得到一個(gè)對抗樣本。

除此之外,研究者們也第一次嘗試了 ensemble attack (多模型攻擊)。利用一張對抗樣本同時(shí)攻擊兩個(gè)目標(biāo)檢測系統(tǒng) YOLOV2 和 Faster R-CNN。結(jié)果顯示不同于傳統(tǒng)的加權(quán)平均的攻擊方,利用魯棒優(yōu)化技術(shù)可以提高對兩個(gè)目標(biāo)檢測系統(tǒng)的平均攻擊成功率。

實(shí)驗(yàn)結(jié)果

首先,研究者們在數(shù)字領(lǐng)域做了基礎(chǔ)的比較試驗(yàn),結(jié)果發(fā)現(xiàn)相較于非剛性變化—仿射變換,TPS 變化可以將攻擊成功率在 YOLOV2 上從 48% 提升到 74%,在 Faster R-CNN 上由 34% 提升到 61%!這證明了對于柔性物體,加入 TPS 變化的必要性。

之后研究人員將這些對抗樣本打印到白色 T 恤上,讓穿戴者在不同場合以各種姿態(tài)移動并對其錄制視頻。最后將采集到的所有視頻送入目標(biāo)檢測系統(tǒng)進(jìn)行檢測,統(tǒng)計(jì)攻擊成功率。

如下面的動圖所示:

Adversarial T-shirt可讓你在AI目標(biāo)檢測系統(tǒng)中“消失無形”

最終,在現(xiàn)實(shí)世界中,該方法利用 TPS 生成的樣本對抗 YOLOV2 可以達(dá)到 57% 的攻擊成功率,相較而言,僅使用仿射變換只能達(dá)到 37% 攻擊成功率。

除此之外,研究者們還做了非常詳盡的 ablation study:針對不同場景,距離,角度,穿戴者姿勢進(jìn)行研究。

Adversarial T-shirt可讓你在AI目標(biāo)檢測系統(tǒng)中“消失無形”

結(jié)果顯示,提出的方法對距離的遠(yuǎn)近和角度變化較為敏感,對不同的穿戴者和背景環(huán)境變化表現(xiàn)出的差異不大。

關(guān)于 AI 安全的更多討論

生成對抗樣本其實(shí)和深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是同根同源的。通過大量樣本學(xué)習(xí)得到的深度神經(jīng)網(wǎng)絡(luò)幾乎是必然的存在大量的對抗樣本。就像無數(shù)從事 Adversarial Machine Learning(對抗性機(jī)器學(xué)習(xí))的研究者一樣,大家充分意識到了神經(jīng)網(wǎng)絡(luò)的脆弱性和易攻擊性。但是這并沒有阻礙我們對深度學(xué)習(xí)的進(jìn)一步研究和思考,因?yàn)檫@種特殊且奇妙的現(xiàn)象來源于神經(jīng)網(wǎng)絡(luò)本身,且形成原因至今沒有明確的定論。而如何構(gòu)建更加魯棒的神經(jīng)網(wǎng)絡(luò)也是目前該領(lǐng)域的 open issue。

該研究旨在通過指出這種特性,以及它有可能造成的社會潛在危害從而讓更多的人意識到神經(jīng)網(wǎng)絡(luò)的安全問題,最終目的是幫助 AI 領(lǐng)域構(gòu)建更加魯棒的神經(jīng)網(wǎng)絡(luò)從而可以對這些對抗樣本不再如此敏感。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 檢測系統(tǒng)
    +關(guān)注

    關(guān)注

    3

    文章

    974

    瀏覽量

    43805
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    34784

    瀏覽量

    277182
  • 隱身技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    10

    瀏覽量

    7974
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    軒轅智駕紅外目標(biāo)檢測算法在汽車領(lǐng)域的應(yīng)用

    AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測算法取得了重大突破,其中紅外目標(biāo)檢測算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性
    的頭像 發(fā)表于 03-27 15:55 ?379次閱讀

    睿創(chuàng)微納推出新一代目標(biāo)檢測算法

    隨著AI技術(shù)的發(fā)展,目標(biāo)檢測算法也迎來重大突破。睿創(chuàng)微納作為熱成像領(lǐng)軍者,憑借深厚的技術(shù)積累與創(chuàng)新能力,結(jié)合AI技術(shù)推出新一代目標(biāo)
    的頭像 發(fā)表于 03-20 13:49 ?388次閱讀

    AI智能質(zhì)檢系統(tǒng) 工業(yè)AI視覺檢測

    AI質(zhì)檢系統(tǒng)通過結(jié)合機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺等先進(jìn)技術(shù),能夠比較準(zhǔn)確的、地完成產(chǎn)品質(zhì)量檢測任務(wù)。本文將從多個(gè)角度詳細(xì)探討AI質(zhì)檢系統(tǒng)
    的頭像 發(fā)表于 02-26 17:36 ?467次閱讀
    <b class='flag-5'>AI</b>智能質(zhì)檢<b class='flag-5'>系統(tǒng)</b> 工業(yè)<b class='flag-5'>AI</b>視覺<b class='flag-5'>檢測</b>

    AI Cube進(jìn)行yolov8n模型訓(xùn)練,創(chuàng)建項(xiàng)目目標(biāo)檢測時(shí)顯示數(shù)據(jù)集目錄下存在除標(biāo)注和圖片外的其他目錄如何處理?

    AI Cube進(jìn)行yolov8n模型訓(xùn)練 創(chuàng)建項(xiàng)目目標(biāo)檢測時(shí)顯示數(shù)據(jù)集目錄下存在除標(biāo)注和圖片外的其他目錄怎么解決
    發(fā)表于 02-08 06:21

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    分類任務(wù)是識別圖像主體內(nèi)容的是什么?的問題,那么目標(biāo)檢測則是進(jìn)一步解答在哪里? 目標(biāo)檢測不僅需要識別出圖像或視頻流
    發(fā)表于 12-19 14:33

    直播報(bào)名丨第4講:AI檢測系統(tǒng)落地工具詳解

    阿丘工業(yè)AI學(xué)堂上線“AI檢測系統(tǒng)開發(fā)實(shí)戰(zhàn)”系列課程,全面涵蓋AI檢測
    的頭像 發(fā)表于 11-23 01:05 ?382次閱讀
    直播報(bào)名丨第4講:<b class='flag-5'>AI</b><b class='flag-5'>檢測</b><b class='flag-5'>系統(tǒng)</b>落地工具詳解

    直播報(bào)名丨第2講:熱門AI檢測案例解析

    阿丘工業(yè)AI學(xué)堂上線“AI檢測系統(tǒng)開發(fā)實(shí)戰(zhàn)”系列課程,全面涵蓋AI檢測
    的頭像 發(fā)表于 11-12 01:05 ?494次閱讀
    直播報(bào)名丨第2講:熱門<b class='flag-5'>AI</b><b class='flag-5'>檢測</b>案例解析

    目標(biāo)檢測中大物體的重要性

    導(dǎo)讀實(shí)驗(yàn)表明,對大型物體賦予更大的權(quán)重可以提高所有尺寸物體的檢測分?jǐn)?shù),從而整體提升目標(biāo)檢測器的性能(在COCOval2017數(shù)據(jù)集上使用InternImage-T模型,小物體
    的頭像 發(fā)表于 10-09 08:05 ?782次閱讀
    在<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>中大物體的重要性

    圖像分割與目標(biāo)檢測的區(qū)別是什么

    的區(qū)別。 定義 圖像分割是將圖像劃分為若干個(gè)區(qū)域或?qū)ο蟮倪^程,這些區(qū)域或?qū)ο缶哂邢嗨频膶傩裕珙伾⒓y理或形狀。圖像分割的目的是將圖像的不同對象或區(qū)域分離出來,以便進(jìn)行進(jìn)一步的分析和處理。 目標(biāo)檢測則是在圖像
    的頭像 發(fā)表于 07-17 09:53 ?2319次閱讀

    目標(biāo)檢測與圖像識別的區(qū)別在哪

    檢測(Object Detection)是指在圖像或視頻識別并定位感興趣的目標(biāo),通常包括目標(biāo)的類別和位置。目標(biāo)
    的頭像 發(fā)表于 07-17 09:51 ?1740次閱讀

    目標(biāo)檢測與識別技術(shù)有哪些

    視頻識別并定位感興趣的目標(biāo),通常包括目標(biāo)的類別和位置信息。目標(biāo)識別(Object Recognition)是指對檢測到的
    的頭像 發(fā)表于 07-17 09:40 ?1294次閱讀

    目標(biāo)檢測與識別技術(shù)的關(guān)系是什么

    任務(wù)是在圖像或視頻快速準(zhǔn)確地定位出感興趣的目標(biāo),并給出目標(biāo)的位置信息。目標(biāo)檢測技術(shù)通常包括候選區(qū)域提取、特征提取、分類器設(shè)計(jì)等步驟。
    的頭像 發(fā)表于 07-17 09:38 ?1224次閱讀

    目標(biāo)檢測識別主要應(yīng)用于哪些方面

    介紹目標(biāo)檢測識別的應(yīng)用領(lǐng)域,以及其在各個(gè)領(lǐng)域的具體應(yīng)用情況。 安全監(jiān)控 安全監(jiān)控是目標(biāo)檢測識別應(yīng)用最廣泛的領(lǐng)域之一。在安全監(jiān)控系統(tǒng)
    的頭像 發(fā)表于 07-17 09:34 ?1854次閱讀

    慧視小目標(biāo)識別算法 解決目標(biāo)檢測的老大難問題

    隨著深度學(xué)習(xí)和人工智能技術(shù)的興起與技術(shù)成熟,一大批如FasterR-CNN、RetinaNet、YOLO等可以在工業(yè)界使用的目標(biāo)檢測算法已逐步成熟并進(jìn)入實(shí)際應(yīng)用,大多數(shù)場景下的目標(biāo)檢測
    的頭像 發(fā)表于 07-17 08:29 ?946次閱讀
    慧視小<b class='flag-5'>目標(biāo)</b>識別算法   解決<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b><b class='flag-5'>中</b>的老大難問題

    基于深度學(xué)習(xí)的小目標(biāo)檢測

    在計(jì)算機(jī)視覺領(lǐng)域,目標(biāo)檢測一直是研究的熱點(diǎn)和難點(diǎn)之一。特別是在小目標(biāo)檢測方面,由于小目標(biāo)在圖像中所占比例小、特征不明顯,使得
    的頭像 發(fā)表于 07-04 17:25 ?1989次閱讀
    主站蜘蛛池模板: 天天做天天爱天天做天天吃中 | 日本黄色绿像 | 777色淫网站女女 | 扒开末成年粉嫩的流白浆视频 | 手机在线免费观看视频 | tube44在线观看 | 丁香六月婷婷精品免费观看 | 色爱区综合激情五月综合色 | 日本免费黄色录像 | 色妞视频资源在线观看 | 午夜视频h| 99久久国产免费中文无字幕 | www.av免费| 成年人激情视频 | 日日操夜夜 | 久久99热久久精品99 | 亚洲精品成人久久久影院 | 午夜视频在线观看免费观看在线观看 | 欧美综合一区二区三区 | 欧美三级黄色 | 亚洲 欧美 自拍 另类 | 亚洲韩国欧美一区二区三区 | 国产婷婷综合丁香亚洲欧洲 | 日日日日人人人夜夜夜2017 | xxxx人妖| 欧美一级欧美三级在线 | 欧美一二区视频 | 91色多多| 天天躁狠狠躁夜夜躁2021 | 最色网在线观看 | 亚洲不卡免费视频 | 操女人网 | 在线综合网 | 岛国午夜| 苍井优一级毛片免费观看 | 亚洲香蕉国产高清在线播放 | 中文免费观看视频网站 | 久久福利免费视频 | 我被黑人巨大开嫩苞在线观看 | 亚洲天天| 国产成人精品一区 |