關(guān)于姚期智在2020年浦江創(chuàng)新論壇的演講,迄今為止只見到頭條推送的兩篇報(bào)道,即“圖靈獎(jiǎng)唯一華人得主PPT:人工智能四大挑戰(zhàn),影響自動(dòng)駕駛”(簡(jiǎn)稱“四大挑戰(zhàn)”)與“中國科學(xué)院院士姚期智:人工智能存在三大技術(shù)瓶頸”(簡(jiǎn)稱“三大瓶頸”)。“四大挑戰(zhàn)”一文中有4頁P(yáng)PT稿。PPT稿上,姚期智只提了“魯棒性”與“可解釋性”兩大技術(shù)瓶頸,以及未來超級(jí)人工智能的終極挑戰(zhàn)。“三大瓶頸”一文中將脆弱性、機(jī)器學(xué)習(xí)算法缺乏可解釋性、人工智能的對(duì)抗性較弱列為三大瓶頸。上述兩篇報(bào)道顯然出自專業(yè)人士的現(xiàn)場(chǎng)報(bào)道,有助于對(duì)姚期智演講的深入理解。
關(guān)于魯棒性問題,可以解釋成脆弱性、非安全性、非可靠性問題。人工智能系統(tǒng)設(shè)計(jì)歷來重功能性設(shè)計(jì),輕可靠性、安全性設(shè)計(jì);或先功能性,后安全性、可靠性。在早期產(chǎn)品中這一現(xiàn)象尤為嚴(yán)重。在自動(dòng)駕馭汽車領(lǐng)域,最終制約因素是安全性、可靠性問題,未來,無人駕駛汽車研發(fā)會(huì)因可靠性、安全性問題,成為“永在途中”的課題。
關(guān)于可解釋性,可以理解成廣義的開源性。可解釋性就是如何讓人們深入了解人工智能系統(tǒng)。以汽車為例,在工業(yè)革命時(shí)代,汽車駕駛者們對(duì)汽車原理、結(jié)構(gòu)一目了然;現(xiàn)在,汽車對(duì)于駕駛員而言只是一個(gè)黑盒子,只有方向盤、油門、剎車這樣一個(gè)應(yīng)用界面。相比而言,工業(yè)革命時(shí)代的汽車有高度的可解釋性,人工智能的新興汽車無可解釋性。同樣,手機(jī)、數(shù)碼相機(jī)、電視機(jī)相較于電話機(jī)、照相機(jī)、電子管電視機(jī)而言,無可解釋性,對(duì)所有使用者都是黑盒子,無人去拆解、修理,去了解其內(nèi)部結(jié)構(gòu),這是一種十分現(xiàn)實(shí)、十分先進(jìn)的人工智能產(chǎn)品的傻瓜化應(yīng)用模式,它將知識(shí)創(chuàng)新與創(chuàng)新知識(shí)應(yīng)用徹底分離。然而,對(duì)于人工智能創(chuàng)新領(lǐng)域,不可解釋性是一個(gè)技術(shù)創(chuàng)新的巨大障礙。硬件的透明、軟件的開源,一定程度上解決了技術(shù)創(chuàng)新的可解釋性障礙。目前,可解釋性障礙突出表現(xiàn)在算法領(lǐng)域(人工智能三大基礎(chǔ)之一),它阻礙算法的推廣、評(píng)價(jià)與市場(chǎng)化,算法的碎片化現(xiàn)象會(huì)嚴(yán)重阻礙人工智能的發(fā)展。
關(guān)于第三個(gè)對(duì)抗性瓶頸,文中截取的PPT講稿中,未能見到列舉的這個(gè)瓶頸,也許可以歸納到魯捧性中。
姚期智是一個(gè)極有遠(yuǎn)見、對(duì)人工智能有獨(dú)到見解的大家。早年在清華大學(xué)的一次演講中,他提出了人工智能時(shí)代的“大科學(xué)”概念。它表明:人工智能時(shí)代,已進(jìn)入到諸多強(qiáng)勢(shì)科學(xué)的交叉融合發(fā)展時(shí)代,各個(gè)強(qiáng)勢(shì)學(xué)科都會(huì)以自己的視角(自以為是地)詮釋人工智能。此次演中,姚期智提到超人工智能,并提出對(duì)超人工智能的三點(diǎn)期望。過去人們一直把人工智能分成弱人工智能與強(qiáng)人工智能。弱人工智能始于半導(dǎo)體微處理器誕生,是對(duì)人類智力的人工仿真;強(qiáng)人工智能始于大腦工程,是人工智能的智力創(chuàng)新時(shí)代。由于人工智能超高速度的瘋狂發(fā)展,人們無法預(yù)見人工智能的未來,便有了后強(qiáng)人工智能的超人工智能概念。姚期智認(rèn)為超人工智能具有很大的不確定性,人類會(huì)面對(duì)諸多種潛在威脅。對(duì)于超人工智能的未來,姚期智給出了未來制約智能機(jī)器的三個(gè)原則:一是利他,即人的利益凌駕于機(jī)器;二是謙卑,即機(jī)器不能自以為是;三是盡心,即機(jī)器能學(xué)懂人的偏好。每個(gè)原則都要用嚴(yán)格的算法來實(shí)現(xiàn),這樣就能有效駕馭人工智能。這是一個(gè)對(duì)未知時(shí)代的理性期望,希望人工智能最終能走向理性化道路。
延伸閱讀文中提到的兩篇報(bào)道:
圖靈獎(jiǎng)唯一華人得主PPT:人工智能四大挑戰(zhàn),影響自動(dòng)駕駛
無論當(dāng)前自動(dòng)駕駛,或是今后無人駕駛,都離不開以人工智能為基礎(chǔ)的算法、算力和數(shù)據(jù)支撐,最近也一直在學(xué)習(xí)相關(guān)的知識(shí)。
全球人工智能頂級(jí)大咖,也是圖靈獎(jiǎng)唯一華人獲得者姚期智,在2020浦江創(chuàng)新論壇上,從前瞻和頂層的角度,發(fā)表了“人工智能面對(duì)的挑戰(zhàn)”,個(gè)人覺得很有啟發(fā),這里與讀者進(jìn)行分享。
“魯棒性”和“可解釋性”是當(dāng)前研究熱點(diǎn)
魯棒性(Robustness),這也是汽車?yán)锖芰餍械脑~匯,系統(tǒng)受到不正常干擾時(shí),還能保證功能正常運(yùn)作。
當(dāng)前機(jī)器學(xué)習(xí)十分脆弱和不穩(wěn)定,將一只小豬的照片加入些許“干擾”,就很有可能被系統(tǒng)識(shí)別為飛機(jī)。
“小豬變飛機(jī)”這種漏洞,會(huì)給人工智能應(yīng)用帶來安全隱患。例如自動(dòng)駕駛汽車在通過路口時(shí),交通信號(hào)燈指示“停止”,但只要稍微被干擾和攻擊,系統(tǒng)很有可能識(shí)別為“通行”,會(huì)給自動(dòng)駕駛帶來嚴(yán)重安全隱患。
機(jī)器學(xué)習(xí)算法缺乏可解釋性,是人工智能的“黑盒子”挑戰(zhàn)。
基于機(jī)器學(xué)習(xí)算法開發(fā)的房地產(chǎn)估價(jià)系統(tǒng),通過學(xué)習(xí)各地房地產(chǎn)價(jià)格大數(shù)據(jù),構(gòu)建了價(jià)格模型,能自動(dòng)評(píng)估房地產(chǎn)價(jià)格。
但這個(gè)價(jià)格無法用很好的邏輯去解釋,估價(jià)沒有完整的依據(jù),賣房人心中會(huì)產(chǎn)生懷疑,這套系統(tǒng)會(huì)不會(huì)“故意”低估了這套房產(chǎn)價(jià)值,從而讓價(jià)格有利于買房者。
這樣的漏洞會(huì)導(dǎo)致人工智能在大規(guī)模應(yīng)用時(shí),特別是涉及到安全問題,如自動(dòng)駕駛時(shí),人們會(huì)有所顧慮。
以上兩個(gè)挑戰(zhàn)和例子是當(dāng)前人工智能研究的熱點(diǎn)。
“強(qiáng)化學(xué)習(xí)”近幾年產(chǎn)生驚人效果
強(qiáng)化學(xué)習(xí),在未來在三到五年內(nèi),卻是很有可能在應(yīng)用上產(chǎn)生驚人的效果,是最有可能被突破的方向。
無人機(jī)群可輕松完成燈光秀、農(nóng)林作業(yè)等任務(wù),但這些任務(wù)都是人類與自然界的對(duì)抗,自然界不是非常樂意地要與人類進(jìn)行對(duì)抗,這并不是一個(gè)惡意的對(duì)抗,是很容易解決的。
但如果是人和人、單位和單位進(jìn)行較量,這個(gè)時(shí)候,要找到一個(gè)最優(yōu)策略的空間就會(huì)變得無窮大,傳統(tǒng)計(jì)算機(jī)里面從數(shù)學(xué)角度嚴(yán)格來解決問題就行不通了。
而強(qiáng)化學(xué)習(xí)可以解決這個(gè)問題,是目前人工智能發(fā)展最迅速的方向,和普通的圖像識(shí)別提升1%的精度相比,這是“0和1”的較量,很有前途。
“多方安全計(jì)算”解決隱私問題
關(guān)于人工智能的隱私保護(hù),1982年姚期智提出了“百萬富翁”的問題:兩個(gè)百萬富翁街頭邂逅,他們都想炫一下富,比比誰更有錢,但是出于隱私,都不想讓對(duì)方知道自己到底擁有多少財(cái)富,如何在不借助第三方的情況下,讓他們知道他們之間誰更有錢?
在這個(gè)經(jīng)典問題之下,誕生了“多方安全計(jì)算”(MultipartyComputation, MPC)這門密碼學(xué)分支。
通過MPC,多個(gè)數(shù)據(jù)庫可以聯(lián)手做計(jì)算,卻又不透露各自的數(shù)據(jù),最終實(shí)現(xiàn)數(shù)據(jù)所有權(quán)和使用權(quán)的分離。
多方安全計(jì)算,對(duì)金融科技、藥物研發(fā)等AI應(yīng)用非常有用。
“超級(jí)人工智能”終極挑戰(zhàn)
人臉識(shí)別等僅適用于特定領(lǐng)域,通用的超級(jí)人工智能何時(shí)會(huì)到來?這存在很大的不確定性。
超級(jí)人工智能必須可控而有益,譬如原子能和基金編輯。同時(shí)需要具備“利他的、謙卑的、盡心的”三個(gè)原則。
也就是,人的利益應(yīng)凌駕于機(jī)器利益,機(jī)器不能自以為是,而且要學(xué)懂人的偏好。
期望以上分享,能讓讀者對(duì)人工智能趨勢(shì)(自動(dòng)駕駛)有所把控。
中國科學(xué)院院士姚期智:人工智能存在三大技術(shù)瓶頸
昨天舉行的2020浦江創(chuàng)新論壇全體大會(huì)上,圖靈獎(jiǎng)獲得者、中國科學(xué)院院士姚期智做了《人工智能面對(duì)的一些挑戰(zhàn)》主題演講。在他看來,人工智能有三大技術(shù)瓶頸亟待突破,需要科學(xué)家“從0到1”的原創(chuàng)研究。
作為現(xiàn)代密碼學(xué)的奠基人,姚期智創(chuàng)立的上海期智研究院今年初成立,目前已匯聚4位兩院院士、20多位科學(xué)家和多所高校的青年人才。研究院瞄準(zhǔn)人工智能、現(xiàn)代密碼學(xué)、高性能計(jì)算系統(tǒng)、量子計(jì)算及量子人工智能、物理器件與計(jì)算、生物智能6個(gè)方向開展前沿研究。
在姚期智看來,脆弱性是人工智能面臨的第一大技術(shù)瓶頸。人眼識(shí)別十分穩(wěn)定,一個(gè)圖像如有微小改變,人仍能一眼看出它是什么,而人工智能在圖像識(shí)別上卻是能力不足,比如將一只小豬的照片加入一些圖像“雜音”,機(jī)器視覺系統(tǒng)可能會(huì)把它識(shí)別為飛機(jī)。“小豬變飛機(jī)”這種漏洞會(huì)給人工智能應(yīng)用帶來安全隱患。
第二大技術(shù)瓶頸是機(jī)器學(xué)習(xí)算法缺乏可解釋性,很多算法處于“黑盒子”狀態(tài)。如一個(gè)科研團(tuán)隊(duì)開發(fā)了一個(gè)房地產(chǎn)估價(jià)系統(tǒng),系統(tǒng)通過算法學(xué)習(xí)了各地房地產(chǎn)價(jià)格大數(shù)據(jù),從而能自動(dòng)評(píng)估房地產(chǎn)價(jià)格。然而,這套算法像黑盒子一樣,很難給出估價(jià)的完整依據(jù)。這在商業(yè)應(yīng)用上是短板。算法的可解釋性問題亟待科研突破。
第三大技術(shù)瓶頸是人工智能的對(duì)抗性較弱。如今,一個(gè)無人機(jī)群可輕松完成燈光秀、農(nóng)林作業(yè)等任務(wù),但要看到,這些任務(wù)都是在自然環(huán)境下完成,如果是處于高對(duì)抗的人為環(huán)境中呢?比如在電子競(jìng)技和軍事戰(zhàn)斗中,無人機(jī)群的協(xié)同作戰(zhàn)能力就會(huì)受到很大考驗(yàn),要在對(duì)抗中勝出,需要計(jì)算機(jī)科學(xué)、數(shù)學(xué)等領(lǐng)域的科學(xué)家進(jìn)行深入的強(qiáng)化學(xué)習(xí)、博弈論研究,讓無人機(jī)群能在高對(duì)抗環(huán)境中自主找到最優(yōu)策略。“這是一個(gè)很重要的科研方向。”
未來是否會(huì)產(chǎn)生“超級(jí)人工智能”?姚期智說,這存在很大的不確定性。但應(yīng)對(duì)這種潛在威脅,他給出了制約智能機(jī)器的3個(gè)原則:一是利他,即人的利益凌駕于機(jī)器;二是謙卑,即機(jī)器不能自以為是;三是盡心,即機(jī)器能學(xué)懂人的偏好。“每個(gè)原則都要用嚴(yán)格的算法來實(shí)現(xiàn),這樣就能有效駕馭人工智能。”
責(zé)任編輯:haq
-
人工智能
+關(guān)注
關(guān)注
1796文章
47682瀏覽量
240301 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8439瀏覽量
133087 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
785文章
13932瀏覽量
167012
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論