好萊塢已頗為成功地讓我們相信,機器人很快就會接手我們的工作并掌管我們的世界。但在現(xiàn)實生活中,人工智能帶來了一個更迫在眉睫的危險:偏見。
我們這些人工智能領(lǐng)域的從業(yè)人員急需解決這一問題,以防止由我們創(chuàng)造的算法和機器復(fù)制人類的錯誤以及下意識的偏見——世人對這些偏見已然習(xí)以為常。
杜絕人工智能的偏見要從命名開始。給人工智能技術(shù)起一個具有性別色彩的名字,如亞馬遜(Amazon)的Alexa與IBM的Watson,就沿襲了長久以來的固有觀念。性別化的名字會影響用戶與技術(shù)的互動方式。在語音人工智能技術(shù)尚處于早期的當(dāng)下,研究發(fā)現(xiàn),用戶更傾向于要求亞馬遜的Alexa為他們播放歌曲,而需要解決業(yè)務(wù)難題時,他們則會讓IBM的Watson搜索數(shù)據(jù)。
當(dāng)今新誕生的嬰兒,及未來幾代人,從他們出生的第一天起,就會在有語音助手的環(huán)境下長大。在理想的情況下,我們將實現(xiàn)讓人類向非性別化的人工智能系統(tǒng)咨詢數(shù)據(jù)以解答任何問題——通過Alexa獲取全球供應(yīng)鏈狀況數(shù)據(jù),或在航班取消時利用谷歌的人工智能系統(tǒng)查詢其他航班信息,或向IBM的人工智能系統(tǒng)詢問亞利桑那州坦佩市現(xiàn)在的氣溫。
人工智能技術(shù)應(yīng)該反映出其所有用戶的多樣性。它應(yīng)該為工人創(chuàng)造出公平的競爭環(huán)境,尤其是在如今世界各地的企業(yè)爭相接受差異、新觀點及非傳統(tǒng)技能的情況下。人類與人工智能的互動對每個人來說都應(yīng)該是安全的、可靠的、有價值的、有幫助的。
這就是為什么成功消除偏見要從產(chǎn)品和人的角度入手。特別需要注意的是,人工智能技術(shù)已不可逆轉(zhuǎn)地進入了職場與家庭。
以人工智能技術(shù)驅(qū)動的平臺、應(yīng)用程序及系統(tǒng)的迅速革新意味著我們需要及早消除偏見:在技術(shù)開發(fā)測試階段就進行。偏見——不論是有意識的還是無意識的——在職場上屢見不鮮,在商業(yè)世界中,它們一直左右著招聘決策、晉升、員工反饋與客戶服務(wù)等方面。
偏見不僅限于性別。一個人對種族、宗教、文化及其它方面的看法可能幫助或損害其職業(yè)發(fā)展軌跡和日常工作經(jīng)驗。出自同質(zhì)化團隊、或基于偏頗的數(shù)據(jù)集設(shè)計的人工智能技術(shù)會存在大量偏見。在社交媒體上,存在偏見的信息則以假新聞的形式流傳。在技術(shù)世界中,偏頗的數(shù)據(jù)對創(chuàng)新、信息安全和人與人之間的信任具有顯著破壞性影響。
算法正越來越多地被應(yīng)用于過去依賴人的判斷的職業(yè),如刑事司法領(lǐng)域。其結(jié)果可能危害極大。例如,安保公司Palantir使用算法來為新奧爾良警察局預(yù)測犯罪活動,將易受種族偏見影響的技術(shù)帶入了社區(qū)的核心。
科技從業(yè)者有一個很有利的——盡管轉(zhuǎn)瞬即逝的——機會去創(chuàng)造一個由人工智能和人類協(xié)同合作所推動的極具包容性的未來。但要實現(xiàn)這一目標(biāo),就必須消除技術(shù)中的偏見。
下一次,當(dāng)你瀏覽一則根據(jù)你的年齡、所在位置或購買歷史而向你推送的認為你會感興趣的在線廣告時,請記住,相同的技術(shù)也可能僅僅根據(jù)你的膚色就得出荒誕不經(jīng)的結(jié)論,或根據(jù)你的性別推斷你在職場上的地位。對我來說,這是一個有用的提醒,我們需要對此做些什么——就是現(xiàn)在。
-
機器人
+關(guān)注
關(guān)注
211文章
28724瀏覽量
208775 -
人工智能
+關(guān)注
關(guān)注
1796文章
47836瀏覽量
240660
原文標(biāo)題:別將人類偏見復(fù)制到機器人身上
文章出處:【微信號:robot-1hjqr,微信公眾號:1號機器人網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論