人工智能和機(jī)器學(xué)習(xí)在安全中的應(yīng)用是一個(gè)屢見(jiàn)不鮮的話題,同樣在RSAC2022大會(huì)中出現(xiàn)了圍繞AI/ML為重點(diǎn)的焦點(diǎn)議題。此次會(huì)議中重點(diǎn)探討了AI對(duì)抗和隱私合規(guī)問(wèn)題,還有時(shí)下熱門的零信任、API安全和威脅狩獵等。
RSAC2022人工智能安全議題
以智能對(duì)抗智能
是數(shù)字化時(shí)代下的安全趨勢(shì)
在數(shù)字化轉(zhuǎn)型時(shí)代,對(duì)抗愈發(fā)嚴(yán)峻,攻擊工具更加智能化。相信有過(guò)安全分析工作經(jīng)驗(yàn)的人都對(duì)ATT&CK矩陣并不陌生,而對(duì)抗性機(jī)器學(xué)習(xí)威脅矩陣ATLAS(Adversarial Threat Landscape for Artificial-Intelligence Systems)參照了ATT&CK矩陣技術(shù)的框架設(shè)計(jì),在機(jī)器學(xué)習(xí)攻防技術(shù)博弈的發(fā)展上,框架植入了一系列精心策劃的漏洞和攻擊行為,使安全分析師能夠定位對(duì)機(jī)器學(xué)習(xí)系統(tǒng)的攻擊。
對(duì)抗性機(jī)器學(xué)習(xí)威脅矩陣ATLAS
在RSA大會(huì)的實(shí)際攻擊案例中,來(lái)自SAP公司的漏洞管理人員分享了利用收集的圖像、語(yǔ)音樣本,構(gòu)建深度虛假社會(huì)形象進(jìn)行網(wǎng)絡(luò)攻擊,使得網(wǎng)絡(luò)攻擊更加智能化。為了防范此類攻擊,建議大家不要在社交媒體上留存過(guò)多的視頻和圖片,避免被攻擊者收集濫用。
NIST的安全人員在《Measuringthe Difference: Metric Development at NCCoE‘s Securing AI Testbed》話題中分享了如何利用NCCoE的安全AI測(cè)試平臺(tái)Dioptra評(píng)估人工智能防御模型脆弱性,演講者首先介紹了AI模型的三種常見(jiàn)攻擊手段:(1)樣本投毒:在訓(xùn)練樣本中進(jìn)行投毒;(2)模型逃逸:改變模型預(yù)測(cè)值;(3)反向工程:進(jìn)行反向工程竊取模型或數(shù)據(jù)集。
AI圖像預(yù)測(cè)中的逃逸案例
最后,分享者介紹了如何使用Dioptra工具進(jìn)行AI模型的加固,包括使用數(shù)據(jù)增強(qiáng)、進(jìn)行模型推理前的預(yù)處理等。
除了Dioptra工具外,此次大會(huì)上還有另外一款工具值得注意——ART(Adversarial Robustness Toolbox),ART是IBM 研究團(tuán)隊(duì)開(kāi)源的、用于檢測(cè)模型及對(duì)抗攻擊的工具箱,為開(kāi)發(fā)人員加強(qiáng)AI模型的防御性,讓AI系統(tǒng)變得更加安全,目前支持Tensor Flow和Keras深度學(xué)習(xí),同時(shí)也支持傳統(tǒng)機(jī)器學(xué)習(xí)。
“以智能對(duì)抗智能”,用于紅隊(duì)和藍(lán)隊(duì)的ART工具
該工具支持的AI模型對(duì)抗攻擊類型:
Deep Fool
FastGradient Method
JacobianSaliency Map
UniversalPerturbation
VirtualAdversarial Method
C&WAttack
NewtonFool
對(duì)應(yīng)的防御類型有:
Featuresqueezing
Spatialsmoothing
Labelsmoothing
Adversarialtraining
Virtualadversarial training
由于安全的本質(zhì)是攻防技術(shù)的不斷對(duì)抗。對(duì)應(yīng)防御方,以智能對(duì)抗智能是“正著”,ART工具可以說(shuō)是以智能對(duì)抗智能的一個(gè)典型案例。微軟、谷歌和MITRE在《Red Teaming AI Systems: The Path, the Prospect and the Perils》話題中共同表明了紅隊(duì)AI是未來(lái),但隨著AI對(duì)抗,需要更多的工具和框架來(lái)保護(hù)組織中的AI系統(tǒng)。微軟提出的AI風(fēng)險(xiǎn)管理評(píng)估框架建議機(jī)器學(xué)習(xí)工程師從多個(gè)維度來(lái)評(píng)估AI模型的影響和風(fēng)險(xiǎn)。
微軟的AI風(fēng)險(xiǎn)管理評(píng)估框架
以智能對(duì)抗智能是當(dāng)前對(duì)抗AI類攻擊的主要手段,包括智能威脅分析、狩獵和自動(dòng)化的響應(yīng)處置,大會(huì)上來(lái)自O(shè)nee Security 和Acronis的研究人員分別分享了如何通過(guò)DS4N6AI工具集(集成了大量的異常檢測(cè)算法)增強(qiáng)威脅狩獵,基于機(jī)器學(xué)習(xí)和堆棧分析應(yīng)對(duì)無(wú)文件勒索高級(jí)威脅,在云安全環(huán)境下如何使能安全團(tuán)隊(duì)進(jìn)行自動(dòng)化調(diào)查和響應(yīng)違規(guī)行為。
AI的雙刃劍:
AI隱私合規(guī)問(wèn)題亟需解決
當(dāng)然,伴隨著人工智能技術(shù)的應(yīng)用,它在為人們帶來(lái)便利的同時(shí),也暴露出一些問(wèn)題,例如算法歧視、不公平、缺乏隱私和安全性等。因此,如何以負(fù)責(zé)的、符合倫理要求的方式使用AI,成為業(yè)界關(guān)注的焦點(diǎn)之一。
可信AI 8原則:可復(fù)現(xiàn)、健壯、公平、隱私、可解釋、可問(wèn)責(zé)、透明、安全
解決AI隱私合規(guī)問(wèn)題的“四方法”,首先最重要的是強(qiáng)化規(guī)則制定與立法,讓組織機(jī)構(gòu)必須清楚了解目前適用于AI領(lǐng)域的隱私要求,才能為AI和機(jī)器學(xué)習(xí)應(yīng)用建立一個(gè)合規(guī)的數(shù)據(jù)保護(hù)計(jì)劃。在本次RSA大會(huì)上,重點(diǎn)探討了歐盟和美國(guó)的法律和政策應(yīng)對(duì)人工智能合規(guī)問(wèn)題。
其次,一些安全聯(lián)盟的參與也至關(guān)重要,例如聯(lián)合國(guó)教科文組織(UNESCO)發(fā)布的《AI倫理問(wèn)題建議書(shū)》,歐洲理事會(huì)的報(bào)告《AI系統(tǒng)的監(jiān)管》,經(jīng)濟(jì)合作與發(fā)展組織(OECD)的《AI原則》,以及歐盟委員會(huì)AI高級(jí)別專家組制定的《可信AI倫理指南》。在此次RSA大會(huì)上,由算法正義聯(lián)盟(Algorithmic Justice League,簡(jiǎn)稱AJL)分享了他們的最新研究結(jié)果。AJL是一家位于馬薩諸塞州劍橋市的數(shù)字倡導(dǎo)性非營(yíng)利組織,由計(jì)算機(jī)科學(xué)家Joy Buolamwini于2016年創(chuàng)立,通過(guò)研究、政策宣傳來(lái)提高社會(huì)對(duì)人工智能在社會(huì)中的使用以及人工智能對(duì)社會(huì)造成的危害和偏見(jiàn)的認(rèn)識(shí)。
解決AI隱私合規(guī)問(wèn)題的“四方法”
最后是AI風(fēng)險(xiǎn)管理框架和工具支撐,NIST研究人員在大會(huì)上介紹通過(guò)AIRMF框架解決AI系統(tǒng)可信和風(fēng)險(xiǎn)問(wèn)題,必須處理好AI治理原則與隱私保護(hù)之間的關(guān)系。在可執(zhí)行層面,IBM的AI隱私工具集(ai-privacy-toolkit)通過(guò)數(shù)據(jù)匿名化和最小化幫助開(kāi)發(fā)者解決低維表格類數(shù)據(jù)的隱私問(wèn)題,當(dāng)然模型精度會(huì)有所下降,大約2%左右。
IBM的ai-privacy-toolkit實(shí)現(xiàn)數(shù)據(jù)匿名化效果
針對(duì)AI模型是否存在偏見(jiàn),大會(huì)上來(lái)自SailPoint的在《It’s Not Fair! Detecting Algorithmic Bias with Open Source Tools》話題中提到的aequitas工具能夠幫助你評(píng)估AI模型的偏見(jiàn)問(wèn)題,感興趣的讀者可以親自嘗試一下。
aequitas工具評(píng)估AI模型偏見(jiàn)問(wèn)題
更多的優(yōu)秀工具,筆者都一一匯總在下表中。優(yōu)秀的開(kāi)源AI隱私合規(guī)類工具
RSA大會(huì)上的其他AI議題,還包括了AI在零信任的應(yīng)用。由于受到新冠疫情影響,遠(yuǎn)程辦公對(duì)傳統(tǒng)安全體系結(jié)構(gòu)帶來(lái)的挑戰(zhàn)。大會(huì)上分享了PKI、加密、機(jī)器身份在IAM中的快速增長(zhǎng),以及如何通過(guò)Workload Segmentation降低攻擊風(fēng)險(xiǎn)等。
從本次會(huì)議看,人工智能安全可謂在對(duì)抗中前進(jìn):人工智能除了要解決用戶關(guān)注的隱私合規(guī)問(wèn)題外,還需要解決AI對(duì)抗類攻擊。以智能對(duì)抗智能是當(dāng)前對(duì)抗AI類攻擊的主要手段,而如何在對(duì)抗中“獲得先手”,獲取防御主動(dòng)地位,是AI安全要解決的核心問(wèn)題,也是安全攻防的痛點(diǎn)。
原文標(biāo)題:RSAC2022解讀丨人工智能安全洞察—在對(duì)抗中前進(jìn)
文章出處:【微信公眾號(hào):華為數(shù)據(jù)通信】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
-
API
+關(guān)注
關(guān)注
2文章
1563瀏覽量
63580 -
AI
+關(guān)注
關(guān)注
88文章
34378瀏覽量
275616 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8493瀏覽量
134156
原文標(biāo)題:RSAC2022解讀丨人工智能安全洞察—在對(duì)抗中前進(jìn)
文章出處:【微信號(hào):Huawei_Fixed,微信公眾號(hào):華為數(shù)據(jù)通信】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開(kāi)發(fā)視頻應(yīng)用
景嘉微推出加固AI服務(wù)器
C#集成OpenVINO?:簡(jiǎn)化AI模型部署

評(píng)論