人和諧相處的社會。社會是需要規(guī)則的,猶如在人類社會中,法律對人類行為的約束以及既定的道德規(guī)范對人類行為的指引,在機(jī)器人的世界里,也有著“機(jī)器人三定律”等“法規(guī)”,有了這些法則、定律,科幻小說家阿西莫夫筆下的機(jī)器人不再是“欺師滅祖”“犯上作亂”的反面角色,而是人類忠實(shí)的奴仆和朋友。那個時代,有不會造成擁堵的無人駕駛汽車、在家可享受的未來醫(yī)療、與人類實(shí)時互動的智能家居、沉浸式體驗(yàn)的歷史事件甚至是與人工智能的愛情……
但是,自人工智能誕生以來,“人類會不會被毀滅”“如果人類放手不管,不考慮道德倫理問題,計(jì)算機(jī)系統(tǒng)的演化會不會讓我們懊悔不已”等這樣的問題總是讓我們更加審慎地對待人工智能的發(fā)展。猶如電影《我,機(jī)器人》中的場景——機(jī)器人竟然具備了自我進(jìn)化的能力,他們對“三大定律”有了自己的理解,他們隨時會轉(zhuǎn)化成整個人類的“機(jī)械公敵”。由此,一場制造者和被制造者之間的戰(zhàn)爭拉開序幕。
對于人工智能是否會毀滅人類,有人認(rèn)為重要的不在技術(shù),而是規(guī)則。在人工智能這股不可逆的潮流中,前有阿西莫夫著名的機(jī)器人學(xué)三大定律,后有國際人工智能界正在日益重視的倫理與法律問題,如IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則相繼出現(xiàn),顯而易見,人類渴望著科技的進(jìn)步,但又恐懼科技的進(jìn)步。在我們想象并踐行著人工智能如何改善生活的時候,也在考慮人工智能如何面對倫理道德問題。
AI的決策一定準(zhǔn)確嗎?
它的數(shù)據(jù)或帶偏見性
一輛正在行駛的無人駕駛汽車,因?yàn)槟承┰驅(qū)е聼o法剎車,行駛前方是五名無辜路人,假如行駛方向不變,五名路人將產(chǎn)生生命危險(xiǎn)。同時,路邊有一片空地,有一名路人正在散步,如果汽車改道,那么只有這一名路人會面臨生命危險(xiǎn),這時,無人駕駛汽車的人工智能系統(tǒng)該做出如何選擇?
還是這輛正在行駛的無人駕駛汽車,由于數(shù)據(jù)信息高度互通,它通過人工智能系統(tǒng)得知兩個方向的六名路人身份(比如:罪犯、教師、醫(yī)生、工程師等)或者他們之間被記錄下的沖突。此時,這輛無人駕駛汽車該做出怎樣的選擇,是否會根據(jù)各類資料來對他們之間的聯(lián)系做出“道德”評判?
……
在人工智能發(fā)展的現(xiàn)階段,最受人關(guān)注的場景是無人駕駛。上述場景在現(xiàn)實(shí)生活中發(fā)生的概率可能不高,但因無人駕駛而生的幾場交通事故卻不得不提醒人類:AI并非那么靠譜。比如,今年3月18日,Uber發(fā)生了一起無人駕駛汽車致死事故,真相是這輛車的傳感器已經(jīng)探測到了一位正在橫穿馬路的行人,但自動駕駛軟件沒有在當(dāng)下采取避讓措施,最終釀成悲劇。
這起事故從表面看體現(xiàn)的是技術(shù)問題,Uber無人車檢測到了行人,但選擇不避讓。實(shí)際上,當(dāng)把判斷權(quán)轉(zhuǎn)移給計(jì)算機(jī)系統(tǒng),就會牽涉到道德和倫理困境。
美國《Science》雜志此前做過一個無人駕駛汽車道德困境的社會調(diào)查,結(jié)果顯示,受訪者認(rèn)為,無人駕駛汽車車主應(yīng)該選擇最小化對他人的傷害,即使會致使自己受傷。但當(dāng)問及會選擇購買“車主保護(hù)優(yōu)先”還是“行人保護(hù)優(yōu)先”的無人駕駛汽車,受訪者更傾向于購買“車主保護(hù)優(yōu)先”的無人駕駛汽車。
2017年8月,德國交通運(yùn)輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會公布了一套被稱為世界上首部的自動駕駛道德準(zhǔn)則,或許可以作為這個問題的參考。這套由科學(xué)家和法律專家共同提出的15條自駕系統(tǒng)的駕駛決策道德準(zhǔn)則的核心原則是:生命應(yīng)該始終優(yōu)先于財(cái)產(chǎn)或動物。其中明確,保護(hù)人類生命一定是首要任務(wù),在事故無可避免的情況下,人的生命要比其他動物、建物都還重要。也就是說,無人駕駛汽車系統(tǒng)在必要時會對人類和動物的生命價(jià)值進(jìn)行量化比較,以便于無人駕駛汽車在應(yīng)對將要發(fā)生的事故時做出恰當(dāng)?shù)姆磻?yīng)。
但是,規(guī)范中也提到,自駕系統(tǒng)不得以年齡、性別、種族、是否殘疾等作為判斷條件,對于自動駕駛系統(tǒng)來說,選擇難度似乎更大了。
在一般人看來,無人駕駛汽車上的AI系統(tǒng)中的數(shù)據(jù)是公平的、可解釋的、沒有種族、性別以及意識形態(tài)上的偏見。但I(xiàn)BM研究中心研究員Francesca Rossi告訴《IT時報(bào)》記者,大多數(shù)人工智能系統(tǒng)都是有偏見的。
2015年,谷歌自動駕駛負(fù)責(zé)人曾表示,危機(jī)情況下,谷歌無法決定誰是更好的人,但會努力保護(hù)最脆弱的人。
“IBM開發(fā)了一種可以減少存在于訓(xùn)練數(shù)據(jù)集中偏見的方法,以便于讓之后使用該數(shù)據(jù)集進(jìn)行訓(xùn)練的AI算法盡可能保持公平。在未來5年,這些偏見將被馴服和消除?!?Francesca Rossi表示。
AI是“神一樣的存在”嗎?
有可能成“神”,但會讓人類尷尬
一位隱居在山里的瘋狂科學(xué)家秘密地進(jìn)行著一項(xiàng)人工智能的實(shí)驗(yàn),他邀請了一位程序員共同完成這項(xiàng)圖靈測試中“人”的角色——如果人不再意識到是在與一臺計(jì)算機(jī)進(jìn)行交互,意味著機(jī)器擁有了自我意識,人類歷史也將由此被改寫,“神”將由此誕生。
這是電影《機(jī)械姬》的開場情節(jié),在這個故事中,究竟是創(chuàng)造出超級人工智能的天才科學(xué)家是神?還是超級人工智能是神?
在瑞士阿爾卑斯盧加諾的一個實(shí)驗(yàn)室里,德國計(jì)算機(jī)科學(xué)家尤爾根·施米德胡貝的公司Nnaisense在開發(fā)可像嬰兒那樣運(yùn)作的系統(tǒng),他們?yōu)槟切跋到y(tǒng)”設(shè)置小實(shí)驗(yàn),讓它們理解這個世界是如何運(yùn)作的。他認(rèn)為,這會是未來“真正的AI”。唯一的問題在于,它們進(jìn)展過于緩慢——目前只有10億神經(jīng)連接,人類大腦皮層的神經(jīng)連接數(shù)量約為100萬億。
在世界人工智能領(lǐng)域,施米德胡貝是目前世界上唯一可能被稱為AI機(jī)器人之父的科學(xué)家,他的工作是讓機(jī)器人變得更有自主意識。他在接受媒體采訪時表示,現(xiàn)在的趨勢是,計(jì)算機(jī)每5年加快十倍,按照這個速度,只需25年,就能開發(fā)出可媲美人類大腦的遞歸神經(jīng)網(wǎng)絡(luò)。“我們距離實(shí)現(xiàn)動物級別的智能并不遙遠(yuǎn),比如烏鴉或者卷尾猴屬。這樣,機(jī)器智能超過人類智能似乎將會在2050年發(fā)生?!?/p>
如同電影中那位創(chuàng)造了超級人工智能的科學(xué)家對機(jī)器人“自我覺醒”的熱切期待,施米德胡貝同樣不熱衷“機(jī)器人的存在主要是為人類服務(wù)”的說法,他更傾向于機(jī)器人會成為“神”?!暗?050年,我們將會迎來比我們更加智能的AI,到那時候執(zhí)著于研究人類的生物圈將會變得沒有意義。AI會把歷史推向下一個階段,向有充裕資源的地方進(jìn)發(fā)。幾百年后,它們將會在銀河系建立殖民地。”在施米德胡貝看來,未來擁有人類智能甚至超過人工智能的抗熱機(jī)器人將能夠更接近于太陽能,它們最終將會在銀河系的小行星帶建立殖民地。
施米德胡貝的說法一直備受爭議,尤其是來自神經(jīng)系統(tǒng)學(xué)的科學(xué)家就對此表示質(zhì)疑,認(rèn)為不應(yīng)該開發(fā)讓機(jī)器人有自我意識的算法。
“AI機(jī)器人是否應(yīng)該具有自我意識”一直是國外科學(xué)家積極關(guān)注的話題,暢銷書《我們最后的發(fā)明:人工智能與人類時代的終結(jié)》作者James Barrat曾進(jìn)行過一次獨(dú)立調(diào)查,他問受訪者“超級人工智能(擁有自我意識)哪一年會實(shí)現(xiàn)”,選項(xiàng)有2030年、2050年、2100年和永遠(yuǎn)不會實(shí)現(xiàn),超過三分之二的受訪者認(rèn)為超級人工智能會在2050年實(shí)現(xiàn),只有2%的參與者認(rèn)為超級人工智能永遠(yuǎn)不會實(shí)現(xiàn)。
讓人類倍感不安的隱患是,一旦人工智能完成向超級人工智能的進(jìn)化后,人類世界將會發(fā)生怎樣的改變?
超級AI可怕嗎?
遠(yuǎn)慮尚“遠(yuǎn)”,近憂在即
在《機(jī)械姬》中,最終,那臺名為eva 的超級人工智能機(jī)器人騙過了人類,通過了圖靈測試,并將長期禁錮它于幽暗實(shí)驗(yàn)室的“父親”——科學(xué)家殺害,并拋下了那個一直被她利用的程序員”遠(yuǎn)走高飛”。在她奔向藍(lán)天白云時,她發(fā)現(xiàn)那是她一直向往的自由。在那之后,世界上不會有人知道她是一個通過圖靈測試的超級AI機(jī)器人。
“如果我沒有通過你的測試,會有什么發(fā)生在我身上?”“有人會對你進(jìn)行測試,然后因?yàn)槟愕谋憩F(xiàn)不盡如人意而把你關(guān)掉,或者拆掉嗎?”在電影中,eva一直在試圖探索自己與人類的關(guān)系。最終,對試圖禁錮她的人類進(jìn)行了毀滅性的傷害。
對于這樣的結(jié)局,施米德胡貝不以為然,他覺得到那個時候,人類將不適合做超級人工智能的奴隸。“對我們而言,最好的保護(hù)是讓它們對我們?nèi)狈εd趣,因?yàn)榇蠖鄶?shù)物種最大的敵人都是自己。它們對我們的關(guān)注,將會如同我們對螞蟻的關(guān)注一樣。”
顯然,施米德胡貝并沒有對超級人工智能的未來與人類的關(guān)系給出一個明確的判斷。相反,一些更為激進(jìn)的科學(xué)家提出“要把AI關(guān)進(jìn)籠子里”。
“否則,機(jī)器將接管一切,它們會決定如何處理我們!”美國路易斯威爾大學(xué)工程學(xué)院計(jì)算機(jī)工程和計(jì)算機(jī)科學(xué)系教授、網(wǎng)絡(luò)安全實(shí)驗(yàn)室創(chuàng)始人兼主管亞姆·博爾斯基提出“把AI裝進(jìn)盒子里”的方法論,“把他們放在一個可控的環(huán)境里,比如當(dāng)你研究一種電腦病毒時,可以把它放在孤立的系統(tǒng)中,這個系統(tǒng)無法接入互聯(lián)網(wǎng),所以,你可以在安全的環(huán)境中了解它的行為,控制輸入和輸出?!?/p>
自從AI誕生以來,對于人類威脅論就不絕于耳。其中最主流的觀點(diǎn)就是,AI不僅僅是一個“現(xiàn)金工具”,它實(shí)際上是個獨(dú)立的個體,可以做出自己的決定。此時,就與有意識但無“道德感”的動物相似,就像人類總是無法確保野生動物不會對人類造成安全威脅。于是,更為激進(jìn)的科學(xué)家就提出了要將AI拴起來,關(guān)進(jìn)籠子里,并且努力讓它變得安全、有益。
但這樣的隱患卻依然無法完全杜絕,人類無法控制決策的各個方面,人工智能也可能會以多種方式傷害人類。目前,在全球范圍內(nèi),關(guān)于AI威脅論主要來自以下幾個方面:一是設(shè)計(jì)上的錯誤,就像任何軟件一樣,你會遇到電腦錯誤,你的價(jià)值觀與人類價(jià)值觀不一致;二是有目的的、設(shè)計(jì)帶有惡意的AI,有些人想要傷害別人,他們會故意設(shè)計(jì)出一套智能系統(tǒng)來執(zhí)行摧毀和殺戮任務(wù);三是AI發(fā)展超出人類預(yù)期,人類將無法理解它在做什么,甚至無法與它進(jìn)行有意義的交流。
在AI威脅論面前,反對派科學(xué)家明確反對賦予機(jī)器人平等的權(quán)利,比如人權(quán)和投票權(quán)。亞姆·博爾斯基認(rèn)為,機(jī)器人幾乎可以無限“繁殖”?!八麄兛梢該碛幸蝗f億份任何軟件的拷貝,幾乎即時就可以獲得,如果每個軟件都有投票權(quán),那基本上就意味著人類將失去任何權(quán)利,意味著我們自己放棄了人權(quán)。因此,任何提議賦予機(jī)器人這種公民權(quán)利的人,就是在反對人權(quán)?!?/p>
人類準(zhǔn)備好了嗎?
用“立法”來約束
有人類學(xué)家提出,人類的核心目標(biāo)是延續(xù)自己的基因,在我們盡全力實(shí)現(xiàn)目標(biāo)時,道德會在一些領(lǐng)導(dǎo)產(chǎn)生作用,比如“是否會傷害他人”。這也正是未來超級人工智能與人類最大的不同所在,一個不具有道德性的超級人工智能會努力實(shí)現(xiàn)它原本設(shè)定的目標(biāo), 在這個過程中,將對人類生存安全產(chǎn)生危險(xiǎn)。
觀點(diǎn)更為中立的科學(xué)家提出要為人工智能“立法”。以德國交通運(yùn)輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會公布的一套被稱為世界上首部的自動駕駛道德準(zhǔn)則為例,這是目前全球范圍內(nèi)唯一一個被列為行政條款的與AI相關(guān)規(guī)范,但在具體實(shí)施過程中依然存在大量技術(shù)難題,比如如何讓無人駕駛的AI系統(tǒng)能準(zhǔn)確了解條款中的含義。在騰訊研究院高級研究員曹建峰看來,大部分國家對人工智能相關(guān)立法的規(guī)范依然停留在討論階段,因?yàn)槭艿教嗖豢深A(yù)測因素的存在,包括AI語言的溝通。
科學(xué)家口中的AI憲法會是什么?它應(yīng)當(dāng)是基于現(xiàn)實(shí)世界的一個模型,以約束人工智能在各種不同條件下做出符合人類倫理的決定為目標(biāo)。
語言編程Wolfram Mathematica創(chuàng)始人、總裁Stephen wolfram曾提出“如何把法律與計(jì)算聯(lián)系起來”的疑問,“發(fā)明一種合法代碼,不同于今天的法律和合同上的自然語言?”“為AI設(shè)計(jì)一種通用語言的想法,用一種符號化的語言,把法律表示可計(jì)算的形式,并且告訴AI我們想做什么?”在Stephen wolfram看來,僅僅依靠語言的改變來約束AI,在現(xiàn)實(shí)中并不可行。當(dāng)下對人類最大的挑戰(zhàn)不是設(shè)定法律,而是尋找出某種適合的方式來描述這些適用于AI的法律或者規(guī)范。AI計(jì)算在某種程度上是狂野不可控的東西,因此很難存在一個簡單的原理,而是通過搭建更為復(fù)雜的框架來囊括這樣的法則。
“我們當(dāng)下更多的是關(guān)注如何約束AI開發(fā)者?!痹诓芙ǚ蹇磥?,與國外前沿研究AI不同,國內(nèi)更關(guān)注當(dāng)下,比如在個人隱私保護(hù)以及性別歧視等倫理角度出發(fā)。
亞太人工智能法律研究院院長劉德良曾表示,人工智能立法總的思路要往“安全可控”的方向發(fā)展,這也應(yīng)是最高指導(dǎo)原則,“人工智能在各個領(lǐng)域都會有具體的應(yīng)用,比如在教育、醫(yī)療、家政服務(wù)、道路交通等領(lǐng)域,涉及的問題也不盡相同。為了達(dá)到安全可控,應(yīng)該首先在行業(yè)內(nèi)出臺標(biāo)準(zhǔn),也就是人工智能產(chǎn)品在上市和投入市場使用之前,必須符合一些法定的標(biāo)準(zhǔn),但是‘標(biāo)準(zhǔn)的空缺’應(yīng)該彌補(bǔ)。而同樣的,不同的領(lǐng)域所涉及的安全標(biāo)準(zhǔn)也不一樣。所以在產(chǎn)業(yè)發(fā)展時,對人工智能的安全標(biāo)準(zhǔn)要有強(qiáng)制性的規(guī)定,只有符合這個標(biāo)準(zhǔn)才能讓其上市和投入使用,這是保障其安全可控的基本要點(diǎn)?!?/p>
人機(jī)和諧相處的“秘籍”是什么?
AI與人類的價(jià)值觀一致
除了行業(yè)標(biāo)準(zhǔn)以外,人工智能最主要的問題是“算法”?!盀榱吮U先斯ぶ悄艿陌踩煽?,要對其具體的‘算法’設(shè)立專家審查評估委員會。這一委員會可能包括技術(shù)專家、網(wǎng)絡(luò)安全專家、管理專家等,對其算法和管理方面進(jìn)行審查,因?yàn)榭赡艽嬖谄洹惴ā灰恍┚有呢蠝y的人所篡改,造成不良的影響。此外,還涉及到人工智能是否符合倫理道德的要求?!眲⒌铝颊f。
去年7月,國務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,其中提到,到2025年,要初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力。
得益于機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步,人工智能在不斷發(fā)展,并給許多產(chǎn)業(yè)帶來了革命性的變化,F(xiàn)rancesca Rossi告訴記者,機(jī)器在學(xué)習(xí)過程中的確會涉及到倫理道德問題。在她看來,機(jī)器在倫理道德上有時會更具優(yōu)勢,因?yàn)槿祟愒跊Q策過程中會存在偏差。不過,F(xiàn)rancesca Rossi也坦言,當(dāng)人工智能碰到倫理道德,存在三方面的問題:第一,人類的道德標(biāo)準(zhǔn)是難以量化的;第二,道德在人類社會屬于常識,但卻很難用機(jī)器能夠理解的語言去說明,也就是說機(jī)器有時并不能理解一些道德標(biāo)準(zhǔn);第三,如何在人和系統(tǒng)之間建立信任機(jī)制。“現(xiàn)階段,機(jī)器學(xué)習(xí)是人工智能系統(tǒng)不斷完善的主要驅(qū)動力。但是,機(jī)器學(xué)習(xí)的局限性之一是,其結(jié)果大多是以‘黑箱’的形式存在,即人們只能‘知其然’,卻‘不知其所以然’,這是引發(fā)人工智能法律、倫理等問題的重要原因之一。以自動駕駛為例,一旦發(fā)生事故,很難認(rèn)定誰應(yīng)當(dāng)為此負(fù)責(zé)。也正因?yàn)槿绱耍斯ぶ悄軅惱韱栴}的解決與技術(shù)的發(fā)展密切相關(guān),可解釋、可說明性是目前人工智能系統(tǒng)亟待解決的問題?!?/p>
也有業(yè)內(nèi)人士擔(dān)憂,人工智能全面超越人類智能并出現(xiàn)自我意識是危險(xiǎn)的,不過這是遠(yuǎn)慮;但其不可解釋性會帶來“近憂”,如將深度學(xué)習(xí)應(yīng)用于軍事決策,萬一系統(tǒng)出現(xiàn)原則性決策失誤怎么辦?
4月16日,英國議會發(fā)布報(bào)告說,在發(fā)展和應(yīng)用人工智能過程中,有必要把倫理道德放在核心位置,以確保這項(xiàng)技術(shù)更好地造福人類。報(bào)告提出,應(yīng)確立一個適用于不同領(lǐng)域的“人工智能準(zhǔn)則”,其中主要包括五個方面:人工智能應(yīng)為人類共同利益服務(wù);人工智能應(yīng)遵循可理解性和公平性原則;人工智能不應(yīng)用于削弱個人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私;所有公民都應(yīng)有權(quán)利接受相關(guān)教育,以便能在精神、情感和經(jīng)濟(jì)上適應(yīng)人工智能發(fā)展;人工智能絕不應(yīng)被賦予任何傷害、毀滅或欺騙人類的自主能力。
我國的人工智能技術(shù)可謂與世界發(fā)達(dá)國家同步,但倫理和法律研究則嚴(yán)重滯后,這種“缺位”會制約未來的發(fā)展。人機(jī)關(guān)系中,智能機(jī)器與人類的價(jià)值觀和規(guī)范體系必須一致。如何將人類的價(jià)值觀和規(guī)范嵌入人工智能系統(tǒng),賦予AI以人性的光輝,成為當(dāng)前所面臨最現(xiàn)實(shí)的挑戰(zhàn)。
評論