人工智能真正值得擔(dān)心的是缺德,而不是聰明
我們都要思考技術(shù)如何體現(xiàn)特定的價(jià)值觀和假設(shè),這有助于確保“我們用技術(shù)打造的世界,是一個(gè)我們想要居于其中的世界”。
2018年3月18日晚10點(diǎn)左右,伊萊恩·赫茨伯格(Elaine Herzberg)在亞利桑那州坦佩市騎車(chē)橫穿馬路,被一輛自動(dòng)駕駛汽車(chē)撞倒,不幸身亡。雖然車(chē)上有安全駕駛員,但當(dāng)時(shí)汽車(chē)完全由自動(dòng)駕駛系統(tǒng)(人工智能)控制。
和其他涉及人與AI技術(shù)交互的事故一樣,這起事故提出了一系列的道德和原始法律問(wèn)題:開(kāi)發(fā)該系統(tǒng)的程序員在防止該系統(tǒng)奪人性命方面負(fù)有怎樣的道德責(zé)任?
誰(shuí)應(yīng)該為赫茨伯格的死負(fù)責(zé)?
是坐在駕駛位上的那個(gè)人嗎?
是測(cè)試那輛汽車(chē)的公司嗎?
是該AI系統(tǒng)的設(shè)計(jì)者嗎?
還是車(chē)載感應(yīng)設(shè)備的制造商?
“人工智能”是指從周?chē)h(huán)境中獲取線索,根據(jù)這些數(shù)據(jù)來(lái)解決問(wèn)題、評(píng)估風(fēng)險(xiǎn)、作出預(yù)測(cè)和采取行動(dòng)的系統(tǒng)。在高性能計(jì)算機(jī)和大數(shù)據(jù)之前的時(shí)代,人工智能系統(tǒng)由人類(lèi)編寫(xiě),遵循人類(lèi)發(fā)明的規(guī)則,但技術(shù)進(jìn)步已經(jīng)導(dǎo)致了新方法的出現(xiàn),其中便包括機(jī)器學(xué)習(xí)。現(xiàn)在,機(jī)器學(xué)習(xí)是最活躍的AI領(lǐng)域,它通過(guò)統(tǒng)計(jì)方法來(lái)讓系統(tǒng)從數(shù)據(jù)中“學(xué)習(xí)”,作出決策,不必進(jìn)行顯式編程。這樣的系統(tǒng)配合上一種算法或者一系列步驟,利用一個(gè)知識(shí)庫(kù)或者知識(shí)流(算法用來(lái)構(gòu)建模型的信息)來(lái)解決一個(gè)問(wèn)題。
這些技術(shù)進(jìn)步引發(fā)了道德?lián)鷳n(yōu),主要聚焦于AI在致命性軍用無(wú)人機(jī)方面的應(yīng)用,或者AI可能使全球金融系統(tǒng)陷入混亂的風(fēng)險(xiǎn)。考慮到自主無(wú)人系統(tǒng)已經(jīng)威脅到了無(wú)數(shù)貨車(chē)司機(jī)和打車(chē)司機(jī)的飯碗,AI激起了普通民眾對(duì)失業(yè)的焦慮。除了這些宏觀的社會(huì)和經(jīng)濟(jì)考量,數(shù)據(jù)科學(xué)家還擔(dān)心AI系統(tǒng)的偏見(jiàn)、這項(xiàng)技術(shù)的倫理實(shí)現(xiàn)和人機(jī)交互的本質(zhì)(如果這些系統(tǒng)恰當(dāng)且公平地部署于最尋常普通的應(yīng)用)。
讓我們來(lái)看一個(gè)似乎平淡無(wú)奇的社會(huì)變化:機(jī)器已經(jīng)有能力作出可以改變?nèi)藗內(nèi)粘I畹臎Q定。AI能匯集和評(píng)估大量數(shù)據(jù),有時(shí)超出人力所及的范疇,因此AI可以提出雇傭建議,在幾秒內(nèi)確定貸款申請(qǐng)人的信用度,預(yù)測(cè)罪犯再次犯罪的幾率。
但這樣的應(yīng)用引發(fā)了令人不安的倫理問(wèn)題,因?yàn)锳I系統(tǒng)能強(qiáng)化它們從現(xiàn)實(shí)數(shù)據(jù)中獲得的認(rèn)知,甚至放大熟悉的風(fēng)險(xiǎn),比如種族和性別偏見(jiàn)。在面對(duì)不熟悉的場(chǎng)景時(shí),AI系統(tǒng)還可能作出錯(cuò)誤判斷。由于很多AI系統(tǒng)都是“黑箱”,人類(lèi)不太容易獲知或者理解它們的決策依據(jù),因此難以提出質(zhì)疑或者進(jìn)行探查。
這樣的例子有很多。2014年,亞馬遜開(kāi)發(fā)了一款招聘工具,用來(lái)識(shí)別這家公司想要招募的軟件工程師。很快,該系統(tǒng)開(kāi)始歧視女性,在2017年被亞馬遜棄用。2016年,ProPublica分析了一款商業(yè)軟件。該系統(tǒng)預(yù)測(cè)罪犯再次犯罪的可能性,旨在幫助法官作出更明智的量刑決定。ProPublica發(fā)現(xiàn),該系統(tǒng)對(duì)黑人存有偏見(jiàn)。在過(guò)去兩年里,依靠規(guī)則和訓(xùn)練數(shù)據(jù)來(lái)運(yùn)作的自動(dòng)駕駛汽車(chē)導(dǎo)致了幾起致命事故,原因是對(duì)外界環(huán)境不熟悉或者導(dǎo)航系統(tǒng)無(wú)法理解輸入數(shù)據(jù)。私營(yíng)商業(yè)開(kāi)發(fā)商通常拒絕公布他們的代碼以供檢查,因?yàn)槠滠浖灰暈閷?zhuān)有知識(shí)產(chǎn)權(quán),是另一種形式的不透明性——法律上的,而非技術(shù)上的。
技術(shù)進(jìn)步本身無(wú)法解決AI的深層次根本性問(wèn)題:算法的設(shè)計(jì)哪怕再周全,也必須根據(jù)現(xiàn)實(shí)世界的數(shù)據(jù)來(lái)作出決定,但現(xiàn)實(shí)世界是有缺陷的、不完美的、不可預(yù)測(cè)的、特異的。
計(jì)算機(jī)科學(xué)家比其他人更快意識(shí)到,在系統(tǒng)被設(shè)計(jì)出來(lái)之后,工程并不總是能解決這樣的問(wèn)題。盡管數(shù)據(jù)隱私得到加強(qiáng),對(duì)算法公平的局限性有了更加清醒的認(rèn)識(shí),但人們意識(shí)到,在系統(tǒng)投入使用之前,必須把道德關(guān)切納入考量。這種認(rèn)知促使倫理學(xué)課程(由哲學(xué)系博士后和研究生講授)被正式整合進(jìn)哈佛大學(xué)的很多計(jì)算機(jī)科學(xué)課程。哈佛大學(xué)以及人工智能倫理與治理基金機(jī)構(gòu)(由哈佛大學(xué)法學(xué)院伯克曼·克萊因中心和麻省理工學(xué)院媒體實(shí)驗(yàn)室共同創(chuàng)辦)的數(shù)據(jù)科學(xué)家,就AI對(duì)人類(lèi)社會(huì)的影響進(jìn)行了深入討論。這種對(duì)倫理的關(guān)注源于哈佛大學(xué)一位資深的計(jì)算機(jī)科學(xué)教授。
從溝通到合作——和倫理學(xué)
自然科學(xué)教授芭芭拉·格羅茲(Barbara Grosz)說(shuō):“幾年前,我去拜訪微軟的幾位朋友。其中一人研究計(jì)算機(jī)視覺(jué)系統(tǒng)。我們開(kāi)車(chē)去某處散步。在高速公路上,我們前面的是一輛卡車(chē),上面載著一個(gè)移動(dòng)廁所,一輛自行車(chē)綁在這個(gè)移動(dòng)廁所上。‘我的系統(tǒng)會(huì)怎么處理這個(gè)東西?’那人說(shuō),‘它知道該作何反應(yīng)嗎?’”答案是可能不知道。這樣的一幅情景不可能成為其“體驗(yàn)”——大量的圖像,由人類(lèi)進(jìn)行標(biāo)記,構(gòu)成了系統(tǒng)的訓(xùn)練數(shù)據(jù)——的一部分。
芭芭拉·格羅茲
現(xiàn)在的AI系統(tǒng)還很弱小,比不上強(qiáng)大的人類(lèi)智能——可以把在一個(gè)場(chǎng)景中學(xué)到的東西迅速應(yīng)用到另一個(gè)場(chǎng)景。縱然電腦能區(qū)分自動(dòng)車(chē)、卡車(chē)和移動(dòng)廁所,但如果這些物體混在一起,以每小時(shí)100公里的速度,沿著帶自行車(chē)道的高速公路行駛,那么電腦就會(huì)搞不清狀況。(利用這一弱點(diǎn)就是“AI和敵對(duì)攻擊”的主題。)換句話(huà)說(shuō),AI缺乏常識(shí)和推理能力,即使它能發(fā)現(xiàn)人類(lèi)發(fā)現(xiàn)不了的東西,比如發(fā)現(xiàn)復(fù)雜生物網(wǎng)絡(luò)中的三階或更高階相互作用(必須三個(gè)或更多變量相互作用才能產(chǎn)生效果)。“別老想著機(jī)器人會(huì)統(tǒng)治世界。與其擔(dān)心人們知道其局限性的智能系統(tǒng),不如擔(dān)心人們以為很聰明的愚蠢系統(tǒng)。”
格羅茲曾在康奈爾大學(xué)學(xué)習(xí)數(shù)學(xué),后來(lái)在加州大學(xué)伯克利分校攻讀計(jì)算機(jī)科學(xué),1973年成為斯坦福國(guó)際研究院(SRI International)人工智能中心的研究數(shù)學(xué)家,從此開(kāi)始鉆研AI問(wèn)題。計(jì)算機(jī)如何生成和理解人類(lèi)語(yǔ)音和文本是AI研究的一個(gè)子領(lǐng)域,格羅茲被視為該領(lǐng)域的奠基人(榮獲2017年國(guó)際計(jì)算語(yǔ)言學(xué)協(xié)會(huì)終生成就獎(jiǎng)),她能說(shuō)出Alexa、Siri和谷歌等智能語(yǔ)音系統(tǒng)一大堆的不足之處。例如,這些系統(tǒng)知道最近的醫(yī)院在哪里,卻沒(méi)辦法指引腳踝受傷的人前往。
她在語(yǔ)言方面開(kāi)展AI研究的時(shí)候,還沒(méi)有自然語(yǔ)言處理這種數(shù)據(jù)驅(qū)動(dòng)的方法,所以她發(fā)明了一種基于模型的方法來(lái)代表人類(lèi)語(yǔ)言,好讓計(jì)算機(jī)可以理解其含義。事實(shí)證明這對(duì)該領(lǐng)域特別有價(jià)值,因?yàn)檫@促使她深入思考人機(jī)交互的本質(zhì),后來(lái)在構(gòu)想人機(jī)協(xié)作的未來(lái)時(shí),又促使她提出了旨在跟人進(jìn)行團(tuán)隊(duì)合作的協(xié)作型AI系統(tǒng)的理論模型。
她在語(yǔ)言計(jì)算模型方面的研究遠(yuǎn)遠(yuǎn)超出了語(yǔ)法規(guī)則設(shè)計(jì)的范疇。理解說(shuō)話(huà)者的意圖,以便確定對(duì)話(huà)的結(jié)構(gòu),從而解譯人類(lèi)話(huà)語(yǔ)的含義,這是她開(kāi)創(chuàng)的一個(gè)重要策略。她指出,真正的對(duì)話(huà)經(jīng)常偏離主題,焦點(diǎn)不時(shí)轉(zhuǎn)換。她舉了一個(gè)著名的例子:一個(gè)人試圖通過(guò)電傳打字機(jī),告訴另一個(gè)人如何組裝一臺(tái)空氣壓縮機(jī),兩人的自發(fā)對(duì)話(huà)被她記錄了下來(lái)。其中一人用“它”來(lái)指代一個(gè)已經(jīng)有半小時(shí)都沒(méi)有被提及的物體,但兩人十分清楚是什么意思。她說(shuō),語(yǔ)氣也是理解歧義句的關(guān)鍵。“你是真正的王子”可能說(shuō)得真心誠(chéng)意,也可能語(yǔ)帶諷刺,必須教電腦明白二者的區(qū)別。
從這種跨學(xué)科研究中,產(chǎn)生了關(guān)于人機(jī)交互本質(zhì)的一般性原則。格羅茲和博士生(現(xiàn)為微軟研究院高級(jí)研究員)艾瑟·卡馬爾(Ece Kamar)提出了“中斷管理”理論,用于引導(dǎo)人機(jī)之間的信息交換,以大大提高人機(jī)對(duì)話(huà)的效率。在漫長(zhǎng)的職業(yè)生涯中,她逐漸意識(shí)到,AI系統(tǒng)與人類(lèi)團(tuán)隊(duì)協(xié)作才能最大程度地發(fā)揮AI的作用。她設(shè)想的未來(lái)將智能電腦的速度和統(tǒng)計(jì)能力與人類(lèi)的天賦相結(jié)合,而不是機(jī)器和人類(lèi)彼此對(duì)抗。在描述AI系統(tǒng)擊敗象棋和圍棋世界冠軍或者取代人類(lèi)工作崗位時(shí),對(duì)抗常常被用來(lái)形容機(jī)器和人類(lèi)的關(guān)系。可以說(shuō),人機(jī)協(xié)作代表了AI系統(tǒng)的前沿。
格羅茲開(kāi)始在醫(yī)療領(lǐng)域試驗(yàn)基于團(tuán)隊(duì)的AI系統(tǒng)。她和一位斯坦福兒科醫(yī)生啟動(dòng)了一個(gè)協(xié)調(diào)罕見(jiàn)病兒童護(hù)理工作的項(xiàng)目。照料這些兒童的人有很多,除了父母之外,還包括醫(yī)生、家庭護(hù)理人員、理療師和老師。她說(shuō),護(hù)理時(shí)間橫跨數(shù)年,“我不知道有哪個(gè)人可以在這么長(zhǎng)的時(shí)間內(nèi),持續(xù)追蹤另外15個(gè)人都干了些什么”。
格羅茲和博士生(現(xiàn)為以色列理工學(xué)院教員)奧夫拉·阿米爾(Ofra Amir)從分析患者護(hù)理團(tuán)隊(duì)如何工作開(kāi)始,提出了一個(gè)團(tuán)隊(duì)合作的理論,引導(dǎo)人類(lèi)成員和旨在協(xié)調(diào)兒童護(hù)理信息的AI系統(tǒng)進(jìn)行互動(dòng)。正如她在語(yǔ)言方面的AI研究一樣,她從一般性原則著手。“在理論層面上,我們希望更好地了解在團(tuán)隊(duì)擁有多個(gè)成員的環(huán)境中如何共享信息,然后打造工具,先是為父母,接著為醫(yī)生。”
她和巴伊蘭大學(xué)教授薩里特·克勞斯(Sarit Kraus)提出了一個(gè)重要原則:團(tuán)隊(duì)成員不應(yīng)該承擔(dān)他們?nèi)狈Ρ匾R(shí)或者無(wú)力完成的任務(wù)。這是良好的人類(lèi)團(tuán)隊(duì)合作所具有的一個(gè)特征,也是“知道自身局限性的智能系統(tǒng)”所具有的一個(gè)重要特征。“問(wèn)題在于,不僅是AI,還有很多已經(jīng)面世的技術(shù)無(wú)法完成分配給它們的工作。”“不知道你想要什么”的網(wǎng)絡(luò)客服聊天機(jī)器人就是一例。她說(shuō),這些系統(tǒng)原本應(yīng)該采取不同的設(shè)計(jì),以便客戶(hù)的初次互動(dòng)是在電腦的幫助下跟一個(gè)人進(jìn)行,那個(gè)人應(yīng)該和客戶(hù)建立關(guān)系,并檢查電腦明顯誤解的地方,而系統(tǒng)應(yīng)該幫助那個(gè)人更快地作出回答。當(dāng)智能系統(tǒng)設(shè)計(jì)的這些基本原則沒(méi)有得到應(yīng)有的尊重時(shí),系統(tǒng)被認(rèn)為能夠做到它們實(shí)際上做不到的事情,或者以不恰當(dāng)?shù)姆绞奖皇褂谩?/p>
格羅茲的跨學(xué)科研究方法涵蓋語(yǔ)言學(xué)、哲學(xué)、心理學(xué)、經(jīng)濟(jì)學(xué),甚至還有一點(diǎn)人類(lèi)學(xué)和社會(huì)學(xué),這促使她思考其中哪些學(xué)科對(duì)AI系統(tǒng)設(shè)計(jì)的教學(xué)最有幫助。1987年至2001年,她曾教了一門(mén)AI導(dǎo)論課程,當(dāng)時(shí)AI的應(yīng)用大體上還處于理論層面,但在2013年和2014年,她重開(kāi)那門(mén)課程時(shí),世界已經(jīng)大變,全面運(yùn)行的AI系統(tǒng)投入了使用。格羅茲意識(shí)到,關(guān)于AI提出的倫理挑戰(zhàn)和良好的系統(tǒng)設(shè)計(jì)之間的相互影響,出現(xiàn)了一個(gè)教學(xué)良機(jī)。
這導(dǎo)致了格羅茲對(duì)哈佛大學(xué)計(jì)算機(jī)科學(xué)教學(xué)工作最重要的貢獻(xiàn)之一:倫理學(xué)應(yīng)該緊密地整合進(jìn)所有課程。2015年秋,她引入了一門(mén)新課程,名叫“智能系統(tǒng)設(shè)計(jì)與倫理挑戰(zhàn)”。次年,該課程的25個(gè)名額有140多名學(xué)生申請(qǐng),這使她有了信心。格羅茲鼓勵(lì)她的計(jì)算機(jī)科學(xué)同事將倫理學(xué)整合進(jìn)他們自己的課程。由于他們大多缺乏倫理學(xué)的教學(xué)經(jīng)驗(yàn),她開(kāi)始和哲學(xué)系主任、哲學(xué)沃爾科特教授艾莉森·西蒙斯(Alison Simmons)合作。他們攜手各自領(lǐng)域的同事,招募愿意將倫理單元囊括進(jìn)計(jì)算機(jī)科學(xué)課程的計(jì)算機(jī)科學(xué)教授和愿意教授倫理單元的哲學(xué)系研究生。
這項(xiàng)“嵌入式倫理計(jì)算機(jī)科學(xué)”計(jì)劃的目標(biāo),是教那些打造未來(lái)AI系統(tǒng)的人如何識(shí)別和思考倫理問(wèn)題。(計(jì)算機(jī)科學(xué)現(xiàn)在是哈佛大學(xué)本科生人數(shù)第二多的專(zhuān)業(yè),如果把統(tǒng)計(jì)學(xué)和應(yīng)用科學(xué)等相關(guān)專(zhuān)業(yè)的學(xué)生計(jì)算在內(nèi),那么招生總數(shù)將大大超過(guò)排名第一的經(jīng)濟(jì)學(xué)專(zhuān)業(yè)。)“大多數(shù)的倫理挑戰(zhàn)并沒(méi)有一個(gè)簡(jiǎn)單的正確答案,”格羅茲指出,“所以,就像學(xué)生們學(xué)習(xí)基本的計(jì)算技能一樣,我希望他們學(xué)習(xí)基本的倫理推理技能。”2017年春,四門(mén)計(jì)算機(jī)科學(xué)課程囊括了倫理學(xué)習(xí),同年秋達(dá)到五門(mén),2018年春增加到八門(mén),現(xiàn)在總共有18門(mén),包括系統(tǒng)編程、機(jī)器學(xué)習(xí)及其對(duì)公平和隱私的影響、社交網(wǎng)絡(luò)與審查問(wèn)題、機(jī)器人與就業(yè)和人機(jī)交互。
對(duì)就讀這些課程的學(xué)生進(jìn)行調(diào)查后發(fā)現(xiàn),80%到90%的學(xué)生贊同嵌入式倫理教學(xué),并且還想要更多。格羅茲說(shuō):“我希望所有的計(jì)算機(jī)科學(xué)課程,可能除了一兩門(mén)以外,都包含倫理單元。”這樣一來(lái),到畢業(yè)時(shí),每個(gè)學(xué)生都會(huì)知道,“倫理在該領(lǐng)域的方方面面都非常重要,而不僅僅是在AI方面”。她和同事希望學(xué)生們明白,想要解決偏見(jiàn)和AI可解釋性等問(wèn)題,他們?cè)谠O(shè)計(jì)系統(tǒng)時(shí),必須從一開(kāi)始就把倫理原則放在心上。
變成波士頓司機(jī)
伯克曼·克萊因互聯(lián)網(wǎng)及社會(huì)中心教務(wù)主任、國(guó)際法和計(jì)算機(jī)科學(xué)教授喬納森·齊特林(Jonathan Zittrain)一直從原始法律的角度朝這個(gè)目標(biāo)努力。2018年春,他和麻省理工學(xué)院媒體實(shí)驗(yàn)室主任伊藤穰一(Joi Ito)共同教授一門(mén)課程,內(nèi)容是探索應(yīng)該如何塑造AI技術(shù),使其將公共利益牢記在心。自動(dòng)駕駛汽車(chē)是極好的研究對(duì)象,迫使學(xué)生們正視復(fù)雜性的本質(zhì),遠(yuǎn)非決定誰(shuí)生誰(shuí)死的“失控電車(chē)難題”那么簡(jiǎn)單。
齊特林解釋說(shuō),一旦汽車(chē)真正實(shí)現(xiàn)自主,“這意味著,如果發(fā)出了對(duì)某人的逮捕令,那么下次那個(gè)人進(jìn)入一輛自動(dòng)駕駛汽車(chē)時(shí),車(chē)門(mén)會(huì)自動(dòng)上鎖,汽車(chē)會(huì)把他送到最近的警局。或者,要是車(chē)?yán)锏娜送蝗话l(fā)病了,該怎么辦?車(chē)輛能否以每小時(shí)110公里的速度在城市道路上飛奔,把人送往醫(yī)院,而其他所有車(chē)輛都自動(dòng)向兩邊分開(kāi),讓出一條道路?”
齊特林班上的學(xué)生以為他們知道有關(guān)自動(dòng)駕駛汽車(chē)的討論會(huì)如何展開(kāi)。但當(dāng)齊特林提出一個(gè)非常簡(jiǎn)單的問(wèn)題時(shí),他們面臨著系統(tǒng)設(shè)計(jì)者在道德上的兩難抉擇。那個(gè)問(wèn)題是:“司機(jī)應(yīng)不應(yīng)該能夠要求車(chē)輛以每小時(shí)128公里的速度行駛?”如果是,而汽車(chē)以那個(gè)速度行駛時(shí)發(fā)生了車(chē)禍,司機(jī)是否應(yīng)該承擔(dān)責(zé)任?或者,允許汽車(chē)達(dá)到那個(gè)速度的汽車(chē)制造商是否應(yīng)該負(fù)責(zé)?“超速行駛時(shí)有發(fā)生,但我們知道我們對(duì)此無(wú)能為力,這能讓我們心里好過(guò)點(diǎn)。”齊特林指出,“對(duì)自動(dòng)駕駛汽車(chē)的初始前提是,車(chē)上沒(méi)有司機(jī),我們又不能責(zé)怪汽車(chē),因?yàn)樗莻€(gè)死物。看起來(lái)好像沒(méi)有責(zé)任,但實(shí)際上責(zé)任大了。”汽車(chē)制造商、AI系統(tǒng)設(shè)計(jì)者、政策制定者和司機(jī)都可以被追責(zé)。
齊特林指出,如果車(chē)載AI系統(tǒng)從道路駕駛經(jīng)歷中“學(xué)習(xí)”,不斷改變其行為,那么情況會(huì)變得更加復(fù)雜。“如果它在波士頓開(kāi)得夠多,說(shuō)不定它會(huì)變成波士頓司機(jī)!”這適用于很多學(xué)習(xí)系統(tǒng),而相關(guān)的法律解決方案還未經(jīng)探索。他說(shuō),如果學(xué)習(xí)系統(tǒng)的行為并不總是可以預(yù)測(cè),帶著那種不確定性投入使用,會(huì)讓人們付出代價(jià)。
齊特林說(shuō),在跨學(xué)科研究中,各學(xué)科之間的聯(lián)系是關(guān)鍵所在。在伯克曼·克萊因中心和麻省理工學(xué)院媒體實(shí)驗(yàn)室,他和同事建立了一個(gè)名叫“集會(huì)”的團(tuán)體,讓其他公司的軟件開(kāi)發(fā)人員跟學(xué)生、跟彼此共事幾個(gè)月,研究AI和數(shù)據(jù)科學(xué)其他領(lǐng)域的一些問(wèn)題。“嵌入式倫理授課可以為哈佛大學(xué)不同專(zhuān)業(yè)的學(xué)生提供彼此相逢的機(jī)會(huì),利用他們?cè)诟髯詫?zhuān)業(yè)學(xué)到的知識(shí),以團(tuán)隊(duì)方式研究這類(lèi)東西。”
“我認(rèn)為,這是格羅茲的教學(xué)和研究具有重大影響力和長(zhǎng)久魅力的一個(gè)原因。她教的不是如何干預(yù)和修復(fù)計(jì)算機(jī)系統(tǒng)或軟件,而是在更宏觀的層面上思考人和技術(shù)應(yīng)該如何互動(dòng)。”技術(shù)能被追責(zé)嗎?技術(shù)能被理解嗎?技術(shù)能是公平的嗎?
系統(tǒng)偏見(jiàn)和社會(huì)工程
在2018年10月舉行的首屆哈佛數(shù)據(jù)科學(xué)大會(huì)(HDSC)上,自主無(wú)人系統(tǒng)的公平問(wèn)題被放在了一個(gè)突出的位置。計(jì)算機(jī)科學(xué)教授大衛(wèi)·帕克斯(David Parkes)列出了哈佛大學(xué)數(shù)據(jù)科學(xué)研究的指導(dǎo)原則:應(yīng)該解決包括隱私在內(nèi)的道德問(wèn)題;不應(yīng)該延續(xù)現(xiàn)有偏見(jiàn);應(yīng)該是透明的。但想要?jiǎng)?chuàng)造出體現(xiàn)這些原則的學(xué)習(xí)型AI系統(tǒng)是很難的。系統(tǒng)復(fù)雜性(可能有數(shù)千甚至更多變量)使人們幾乎不可能真正理解AI系統(tǒng),而且存在于學(xué)習(xí)系統(tǒng)所依賴(lài)的數(shù)據(jù)集中的偏見(jiàn)很容易得到強(qiáng)化。
人們?yōu)槭裁春芟氪蜷_(kāi)AI系統(tǒng)的“引擎蓋”,弄明白它到底是如何作出決定的?這有很多原因:評(píng)估是什么導(dǎo)致輸出結(jié)果存在偏見(jiàn),在出事故前進(jìn)行安全檢查,或者在涉及自動(dòng)駕駛汽車(chē)的事故發(fā)生后認(rèn)定責(zé)任。
你能迅速完成這個(gè)簡(jiǎn)單的決策樹(shù)嗎?輸入數(shù)據(jù)是:國(guó)際機(jī)器學(xué)習(xí)會(huì)議;2017年;澳大利亞;袋鼠;晴天。假設(shè)你已經(jīng)正確完成,請(qǐng)用文字來(lái)解釋你是如何達(dá)成拍手這個(gè)決定的。要是有100萬(wàn)個(gè)變量,會(huì)怎么樣?
這探究起來(lái)其實(shí)很難、很復(fù)雜。為了說(shuō)明這一點(diǎn),計(jì)算機(jī)科學(xué)助理教授費(fèi)娜麗·杜什-維雷茲(Finale Doshi-Velez)把一個(gè)相對(duì)簡(jiǎn)單的決策樹(shù)投射到大屏幕上。該決策樹(shù)深四層,按照5個(gè)輸入數(shù)據(jù)來(lái)回答問(wèn)題。如果執(zhí)行正確,最終的結(jié)果是舉起你的左手。一些與會(huì)者能按規(guī)定完成。然后,她展示了一個(gè)更加復(fù)雜得多的決策樹(shù),可能深25層,增加了5個(gè)新參數(shù)來(lái)確定沿該決策樹(shù)到達(dá)正確答案的路徑。這個(gè)任務(wù)對(duì)電腦來(lái)說(shuō)易如反掌。然而,當(dāng)維雷茲詢(xún)問(wèn)有沒(méi)有觀眾可以用文字來(lái)描述他們?yōu)槭裁磿?huì)到達(dá)他們得出的那個(gè)答案時(shí),沒(méi)人回答。即使標(biāo)出正確路徑,也很難用外行人的話(huà)來(lái)描述復(fù)雜的交互式輸入數(shù)據(jù)對(duì)結(jié)果的影響。這還只是決策樹(shù)那樣的簡(jiǎn)單模型,而不是擁有數(shù)百萬(wàn)個(gè)參數(shù)的現(xiàn)代深度架構(gòu)。開(kāi)發(fā)從任意模型(可擴(kuò)展系統(tǒng),擁有任意數(shù)量的變量、任務(wù)和輸出數(shù)據(jù))中獲取解釋的技術(shù),這是維雷茲及其同事的研究課題。
偏見(jiàn)造成了一系列的問(wèn)題。在HDSC大會(huì)上發(fā)表關(guān)于算法公平的講話(huà)時(shí),計(jì)算機(jī)科學(xué)教授辛西婭·德沃克(Cynthia Dwork)說(shuō),面對(duì)不同的群體(比如種族不同或者宗教信仰不同),評(píng)定是否符合資格(比如貸款資格)的算法應(yīng)該對(duì)每個(gè)群體都一視同仁。但在機(jī)器學(xué)習(xí)系統(tǒng)中,算法本身(逐步解決一個(gè)特定問(wèn)題的過(guò)程)只是系統(tǒng)的一部分。另一個(gè)部分是數(shù)據(jù)。在自動(dòng)作出貸款決定的AI系統(tǒng)中,算法部分可能是沒(méi)有偏見(jiàn)的,對(duì)每個(gè)群體都完全公平的,但在算法從數(shù)據(jù)中學(xué)習(xí)后,結(jié)果可能就不是這樣了。德沃克解釋道:“算法訪問(wèn)的數(shù)據(jù)沒(méi)有被正確標(biāo)注(也就是沒(méi)有獲得真相)。”如果被用來(lái)作出決定的數(shù)據(jù)存在偏見(jiàn),那么決定本身就可能存在偏見(jiàn)。
有幾個(gè)方法可能解決這個(gè)問(wèn)題。一是仔細(xì)挑選被算法納入考量的申請(qǐng)人屬性(郵政編碼是著名的種族代號(hào),因此常常被排除)。但偏見(jiàn)可以通過(guò)算法使用的其他變量的相關(guān)性(比如姓氏與地理普查數(shù)據(jù)相結(jié)合)卷土重來(lái)。
德沃克說(shuō),針對(duì)特定群體的偏見(jiàn)常常可以通過(guò)聰明的算法設(shè)計(jì)來(lái)加以解決,但由于算法決策的一個(gè)基本特征,確保對(duì)個(gè)人的公平要難得多。任何一個(gè)這樣的決定都會(huì)劃一條線:正如德沃克所說(shuō),總是會(huì)有來(lái)自不同群體的兩個(gè)人靠近這條線,線的兩邊各有一人,他們?cè)趲缀跛蟹矫娑挤浅O嗨疲挥幸粋€(gè)人會(huì)獲得貸款。
在某些情況下,通過(guò)系統(tǒng)設(shè)計(jì)來(lái)糾正偏見(jiàn)可能不是個(gè)好主意。看看計(jì)算機(jī)科學(xué)教授陳伊玲(Yiling Chen,音譯)和研究生莉莉·胡(Lily Hu)設(shè)計(jì)的一個(gè)雇傭系統(tǒng)。該系統(tǒng)旨在消除對(duì)非洲裔美國(guó)人的雇傭偏見(jiàn)。莉莉說(shuō):“作為純粹的優(yōu)化驅(qū)動(dòng)工具,算法會(huì)繼承、吸收、再現(xiàn)和加劇已有的不平等。比如,就業(yè)市場(chǎng)上存在一個(gè)由來(lái)已久的偏見(jiàn),這時(shí)機(jī)器學(xué)習(xí)來(lái)了,它通過(guò)學(xué)會(huì),重現(xiàn)了這個(gè)偏見(jiàn)。”他們的解決方法(利用經(jīng)濟(jì)學(xué)和社會(huì)學(xué)工具來(lái)理解就業(yè)市場(chǎng)上的偏見(jiàn))使人們對(duì)算法公平的思考超出計(jì)算機(jī)科學(xué)的范疇,從跨學(xué)科、全系統(tǒng)的角度來(lái)看待這一問(wèn)題。
陳伊玲從事于社會(huì)計(jì)算,這個(gè)數(shù)據(jù)科學(xué)領(lǐng)域強(qiáng)調(diào)人類(lèi)行為對(duì)算法輸入數(shù)據(jù)的影響。由于人是“自私的、獨(dú)立的、容易犯錯(cuò)的且不可預(yù)測(cè)的”,這使得算法設(shè)計(jì)不可能在任何情況下都確保公平公正,于是她開(kāi)始思考如何消除訓(xùn)練數(shù)據(jù)(雇傭算法使用的現(xiàn)實(shí)信息)中的偏見(jiàn)。
她和莉莉致力于解決在招聘過(guò)程中落實(shí)反歧視行動(dòng)的問(wèn)題。想要消除少數(shù)群體歷來(lái)面臨的不公,一個(gè)直截了當(dāng)?shù)姆椒ㄊ窃谄渌袟l件相等的情況下,作出有利于少數(shù)群體的雇傭決定。(這可能被視為對(duì)多數(shù)群體的不公,但在真正實(shí)現(xiàn)就業(yè)平等之前,仍然是可以接受的。)但陳伊玲和莉莉考慮了人的因素。假設(shè)少數(shù)群體中的很多人都沒(méi)有上過(guò)大學(xué),原因是“學(xué)費(fèi)高昂,而且由于歧視的緣故,我即使拿到了學(xué)位,找到工作的幾率仍然很低”。同時(shí),雇主可能認(rèn)為“來(lái)自少數(shù)群體的人,受教育程度較低,工作表現(xiàn)不好,因?yàn)樗麄儾粔蚺Α薄j愐亮岷屠蚶蛘f(shuō),考慮到由來(lái)已久的不平等,即使某個(gè)少數(shù)群體人士不上大學(xué)的決定是理性的,但那個(gè)決定會(huì)強(qiáng)化雇主對(duì)整個(gè)群體的成見(jiàn)。這種反饋效應(yīng)模式不僅難以打破,而且正是算法(著眼于以前的成功招聘并將之與大學(xué)學(xué)位聯(lián)系起來(lái))將會(huì)強(qiáng)化的那種數(shù)據(jù)模式。
陳伊玲和莉莉提出的解決方法不單單基于數(shù)學(xué),而是社會(huì)工程,利用算法來(lái)改變數(shù)據(jù)標(biāo)注。這相當(dāng)于承認(rèn)消除數(shù)據(jù)中的偏見(jiàn)非常困難。研究人員提議創(chuàng)建一個(gè)臨時(shí)的就業(yè)市常陳伊玲說(shuō),可以將之視為一個(gè)實(shí)習(xí)期,每個(gè)應(yīng)聘者必須實(shí)習(xí)兩年,然后才能轉(zhuǎn)正。進(jìn)入這個(gè)實(shí)習(xí)庫(kù)后,會(huì)面臨一個(gè)簡(jiǎn)單的“公平約束”算法,該算法要求雇主從少數(shù)和多數(shù)群體中選擇實(shí)習(xí)生,實(shí)習(xí)生數(shù)量要具有代表性。然后,在實(shí)習(xí)結(jié)束時(shí),是否轉(zhuǎn)正只看工作表現(xiàn),不考慮屬于哪個(gè)群體。由于從族群角度來(lái)說(shuō)是同樣聰明的,兩個(gè)群體最終實(shí)現(xiàn)了平等。
莉莉說(shuō):“我們?cè)噲D反駁的是一切都可歸結(jié)為優(yōu)化問(wèn)題、預(yù)測(cè)問(wèn)題或者分類(lèi)問(wèn)題的觀點(diǎn)。這種觀點(diǎn)在機(jī)器學(xué)習(xí)/AI圈子里仍然是主流。如果你以標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)方式來(lái)處理,最后的結(jié)果將是加劇那些不平等。”
她說(shuō),人們必須明白,“創(chuàng)造技術(shù)的行為和我們使用技術(shù)的方式,其本身就是政治行動(dòng)。技術(shù)不是憑空存在的,就像有時(shí)為善、有時(shí)為惡的儀器工具一樣。我覺(jué)得,以那種方式來(lái)看待技術(shù)是很幼稚的”。
莉莉強(qiáng)調(diào),不管技術(shù)被用來(lái)識(shí)別視頻片段中的犯罪嫌疑人,還是被用來(lái)提供適合不同學(xué)習(xí)風(fēng)格的教育或者醫(yī)療建議,“我們都要思考技術(shù)如何體現(xiàn)特定的價(jià)值觀和假設(shè)。這是第一步:要知道,問(wèn)題并非是倫理上的和非倫理上的,其實(shí),在我們?cè)O(shè)計(jì)的一切東西中,總會(huì)有規(guī)范性問(wèn)題,每一步都是如此”。把那種認(rèn)知整合進(jìn)現(xiàn)有的課程中,這有助于確保“我們用技術(shù)打造的世界,是一個(gè)我們想要居于其中的世界”。
評(píng)論