前段時間,胡錫進先生有關建議中國擴充核軍備力量的言論引發熱議,也將人們的目光吸引至對核戰略的廣泛關注。核武器是目前世界上最具破壞力的武器,也是大國戰略威懾的基石,針對人工智能時代核安全發展這一問題的討論和研究十分重要且緊迫?!度斯ぶ悄?a target="_blank">網絡:對軍事對抗升級、威懾和戰略穩定的影響》(The AI-cyber nexus: implications for military escalation, deterrence and strategic stability)一文由美國戰略專家詹姆斯約翰遜(James Johnson)發布在2019年的《網絡政策雜志》(Journal of Cyber Policy)上。審視了人工智能時代的核安全態勢,在人工智能網絡逐漸應用于軍事領域尤其是核領域的背景下考察分析了人工智能增強下的網絡攻防能力對大國核安全產生的潛在影響,為我們理解和探索新時代大國核戰略提供了有益啟發,故將論文的主要觀點總結分析如下,并做簡要評析,以饗讀者。
01
人工智能遇上核武器系統
考慮到文藝作品中對人工智能(AI)的夸張描述,人們很容易夸大人工智能在軍事領域的發展部署所帶來的機遇和挑戰。實際上,“人工智能”一詞目前并沒有公認的定義。如果將其理解為一個通用術語,可以認為人工智能是一類用于提高自動化系統性能以應對各種復雜任務的技術。因而在軍事方面,作為先進武器系統的潛在推動力和力量倍增器,人工智能更類似于電力、無線電、雷達、情報、監視與偵察(ISR)這類支持系統,而不是“武器”本身。像這些支持系統一樣,人工智能在戰略上至關重要但同時十分脆弱,它本質上是一種跨領域技術,并且其效力發揮依賴于裝備實體。就人工智能在核領域的應用來說,主要包括:對核武器的指揮、控制、通信和情報(C3I)架構的質量改進;加強導彈和防空系統的目標捕獲、跟蹤、制導以及識別能力;從質量上優化核導彈的運載系統,幫助核運載系統更自主、更精確地運行,并且具備更強大的抗干擾和抗欺騙能力。同時,人工智能增強下的核指揮和控制系統可以有效緩解“戰爭迷霧”中人類戰略決策固有的許多缺陷,比如對沉沒成本的敏感性、風險判斷的扭曲、認知啟發陷阱(cognitive heuristics)和低效的集體決策。然而作者提醒,目前應用于核領域的人工智能網絡一旦被對手攻擊利用,核武器這把“利刃”有可能喪失威懾作用,甚至刺向自身。
02
人工智能與網絡的結合將增大核戰的風險
鑒于人工智能技術的依賴性和支持性,作者援引Boulanin的觀點認為,人工智能技術的最新進展將加劇現有風險而不是產生全新風險。經由新一代人工智能增強的網絡能力,將增加因核武器與戰略無核武器混合使用以及戰爭速度加快導致的偶發性沖突升級的風險,從而提高爆發核戰爭的可能性。具體表現有以下幾點。
1.模糊網絡攻防界限
一方面,人工智能可以增強軍隊應對網絡攻擊的防御能力。人工智能網絡防御工具(counter-AI)旨在識別網絡行為模式的變化、自動檢測軟件代碼漏洞并應用機器學習技術測試網絡活動的偏差和異常,這些可以幫助軍隊獲得更強大的預防網絡攻擊能力。另一方面,自主性本身也可能會增加軍隊應對網絡攻擊的脆弱性。諸如使用惡意軟件操縱、欺騙自主武器行為識別系統一類的網絡攻擊,相對于防御和反擊成本極低,并且由于缺乏世界公認的處理框架和對構成對抗升級行為的共識,網絡攻擊行為作為一個信號可能難以被自主系統正確識別,甚至將其誤認為是惡意攻擊。即使能夠及時準確地識別此類操作,其背后的動機仍可能含糊不清或被誤解。這客觀上加劇了襲擊國家和被襲國家間的矛盾對立。因此,雖然人工智能可以提升網絡戰能力,進而強化國家威懾力,但這同時也會刺激對手主動對國防系統尤其是核武器系統進行攻擊,從而加劇了安全領域的能力脆弱性悖論(capabilityvulnerability paradox)。
2.增加戰爭決策壓力
針對核武器系統的網絡攻擊究竟構不構成發動核戰爭的充分條件?一旦核武器系統遭網絡攻擊而癱瘓,給予決策者判斷態勢的時間將十分緊張,是否決定使用核武器的壓力可能會增大。尤其是在一個國家保持發射警告態勢的情況下,遭到人工智能增強下的網絡攻擊,核武器系統幾乎無法進行有效探測并且發出警告信號,更不要說在發起核打擊的極短時間內進行身份驗證以及判定責任歸屬了。根據公開消息,北美航空航天防御司令部(NORAD)在不到三分鐘的時間內就可以通過早期預警系統評估和確認即將發生核攻擊的初步跡象,這從側面說明預警系統失靈留給防御方的處置時間多么短暫??s短的決策時間可能會使政治領導人承受巨大壓力,迫使其依據不完整甚至是錯誤的信息在危機期間做出發動核戰爭的決定。
3.刺激先發制人策略
作者指出,中國已將針對核指揮、控制和通信(C3I)系統的網絡滲透視為國家最高安全威脅之一,即使攻擊者的目標僅限于網絡間諜活動。相比之下,俄羅斯傾向于認為其C3I核網絡相對獨立,因此不會受到網絡攻擊。但不管這些差異如何,由人工智能增強的先進網絡工具可能被用來威脅甚至破壞國家核力量的可靠性,這一行為將極大破壞戰略穩定,導致核威懾力的潛在削弱。因此在危機或沖突中,即使人工智能增強下的網絡攻擊能力的有效性并不確定,也將大大降低雙方的風險承受能力,增加雙方“先發制人”的動機。一個在人工智能增強下的各國間良性競爭,需要守成大國與新興大國之間具有信息對稱性,并對雙方的人工智能網絡攻擊手段的準確性和可信度有著共同信心。但現實是,在一個競爭激烈的戰略環境中,一個國家往往傾向于對他國意圖作最壞設想,面對對手依靠人工智能實現愈加強大的針對核武器系統的網絡攻擊能力,“先下手為強”似乎成了自保的唯一“可靠”手段。
4.滋生深度偽造風險
人工智能網絡技術的發展還為煽動敵對國家間的沖突提供了新途徑。例如,國家A借助代理黑客使用生成對抗網絡(Generative Adversarial Networks,簡稱GAN)制造“深度偽造”(Deepfakes)視頻或音頻材料,描繪國家B的高級軍事指揮官密謀對國家C發動先發制人的打擊。然后,這段“深度偽造”視頻被故意泄露給國家C的人工智能增強下的情報收集和分析系統中,引發了國家C的戰略誤判并采取核對抗手段。國家B在這種情況下將不得不以同樣的對抗方式回應。目前,在新興的“深造偽造”軍備競賽中,檢測軟件的發展速度遠落后于進攻性軟件,“開發用于偽造內容的技術的人要比檢測它的人多100到1000倍”。這給信息接收系統的“反人工智能”功能和其他故障安全機制提出了重大挑戰。
03
維護人工智能時代的核穩定須強化國際合作
為避免各國在人工智能網絡戰領域的軍備競賽與核武器結合后演變成毀天滅地的災難,作者呼吁國際社會攜手應對人工智能對大國核戰略的影響與沖擊。
1.加強各方在這一領域的研究、討論與對話
第一,為減輕人工智能網絡安全關系所帶來的不穩定和對抗升級,大國間有必要增加對話以建立信任。在國際討論中,至少應包括外交官和軍事領導人(特別是來自中國、俄羅斯和美國的領導人)、行業專家、人工智能研究人員和多學科學者。軍事大國間應盡快建立一個治理、規范機器學習增強下網絡能力使用的國際框架,并在監管方面開展合作。第二,智庫、學術界和人工智能研究專家應集中資源,研究人工智能網絡對一系列潛在安全問題的影響,比如:人工智能偏見對未來軍事應用的影響;如何應對可能出現的通用人工智能;如有需要,政府可采取步驟,修訂現有的法律定義以解釋人工智能擴散所造成的潛在損害,這些定義包括黑客攻擊、數據注毒和信息欺騙等。
2.研究和實施網絡安全保護措施
研究和實施一些以網絡安全為中心的措施可以預防和減輕人工智能增強下網絡能力提升,特別是涉及安全關鍵的核系統所帶來的一些風險。首先,在解決計算機安全時的成熟經驗可以被應用于開發人工智能上,例如可以采取紅藍對抗的方式幫助工程師和操作員更好理解并執行網絡防御方案、提高進行防御性操作所需的技能。其次,全球防務界應積極投資開發人工智能網絡防御工具、以人工智能為中心的安全硬件以及其他故障安全機制,以幫助降低因人工智能網絡攻擊帶來的沖突升級風險。最后,與這些措施相關的一些問題還需要進一步探討,包括:現有工具在多大程度上可以有效抵御人工智能系統中的漏洞?如何為跨多個軍事領域的人工智能系統量身定制防御工具?在軍事人工智能系統中是否有等同于“補丁”的功能?什么樣的政策可以激勵并確保對軍事領域的現有硬件進行有意義的改革?
04
結語
武器裝備無人化和智能化是未來軍隊發展的必由之路,而核武器系統似乎沒有理由不搭上新一輪軍事技術革命的快車。在美國退出《中程導彈條約》、無意續簽《削減進攻性戰略武器條約》的今天,世界“核軍備競賽”大有重啟勢頭。然而,“核武器+人工智能”究竟是更多地增強了大國威懾力還是更多地把人類置于了災難邊緣?目前來看,這一前景并不明朗。在人工智能、大數據、云計算等技術迅猛發展的當今時代,我們應當提前研究和預判其中的風險,并進行前瞻性預防和化解。應當看到,人類文明的發展大勢只能是走向互信和合作,固守冷戰思維只會使人類在猜疑與對抗中一步步走向自我毀滅的境地。特別是對待掌握地球“重啟鍵”的核武器這一重大問題,人類真的需要樹立命運共同理念,用合作替代對抗,用信任消弭偏見,才能共同塑造人類更美好的明天而非走向共同毀滅。
責任編輯:tzh
-
云計算
+關注
關注
39文章
7850瀏覽量
137877 -
AI
+關注
關注
87文章
31536瀏覽量
270352 -
人工智能
+關注
關注
1796文章
47683瀏覽量
240311
發布評論請先 登錄
相關推薦
評論