當我們問外行人有關人工智能的問題時,他們可能會描繪一幅《2001:銀河漫游》或《終結者》等科幻電影中的未來景象。但是,AINow研究所的聯合創始人MeredithWhittaker和KateCrawford想要改變這種話題走向。
大約四年前,Whittaker和Crawford開始意識到,在全世界范圍內,沒有一家人工智能研究所在研究AI對社會、政治和倫理的影響。于是,兩人在紐約大學創辦了這一本質上屬于跨學科的AINow研究所。她們認為,光靠計算機科學和工程技術,是無法解決這一問題的。要想構建一個能夠產生社會影響的研究機構,她們需要來自社會科學、人文學科、法律、哲學以及人類學、社會學、刑事司法等領域專家的幫助,也需要廣大社區的支持。
Whittaker已在谷歌工作了數十年。在被問及這種雙重從屬關系時,她表示:“谷歌現在的確是一家幾乎掌控著人工智能的公司。我在谷歌從事著大規模測量系統的工作。多年的工作,讓我不禁疑問,如何在全球部署服務器并創建有意義的數據?如何制作具有某種意義的數據?又該如何確保這一點呢?”
這些觸及認知本質的問題,開始讓Whittaker意識到自身工作的問題。她說:“多年來,我一直目睹著人們獲取那些錯誤的、易出錯的或不完整的數據,將其輸入人工智能系統之中,并對我認為不可信或不可驗證的世界發表見解。”
在遇到Crawford之后,Whittaker發現兩人擁有著類似的擔心。Crawford多年來一直在從事著學術研究。Whittaker說:“當我與Kate相識后,我如釋重負。我們在去參加會議的公共汽車上相遇,我們開始討論這個問題,發現了類似的擔心:如果這些技術正好存在于一些最敏感的社會機構呢?當我們開始根據硅谷會議室里人們的假設,自動執行刑事司法時,當我們開始自動化教育時,當我們開始對學生進行自動論文評分和眼睛跟蹤來確定注意力或智力時,你如何確保不會復制歧視模式?”
這些問題牽涉到了一個重要的因素:數據。
Crawford表示,數據實際上是研究人工智能的一個大領域:“現在,我們正在揭開人工智能系統的面紗,發現總是會有非常奇怪的訓練數據進入管道。于是,我開始查看這些訓練數據是從哪里獲得的。”Crawford以預測性警務數據為例。所謂預測性警務,即警察通過城市犯罪熱圖,來預測何時何地會發生何種犯罪。形成這些城市犯罪熱圖的正是人工智能系統所獲取的數據,而正是這些數據,讓警察逮捕了那些可能會犯罪的人。“這不禁讓我們產生疑問,這些數據的來源是什么?”Crawford說。
于是,她們調查了美國13個司法管轄區,這些司法管轄區皆因有偏見、非法或違憲的警務行為而受到法律制裁。這意味著法院已經要求該地區改變警察行為,但是通過栽贓證據或種族偏見的警務等方式創造的數據卻被輸送到了預測性警務系統。她們在這些地區發現了多個案例,尤其是芝加哥地區。在這些案例中,你可以看到,來自腐敗警察行為的數據正在為所謂中立和客觀的預測性警務平臺提供信息,而如此糟糕的監管數據將會導致更多的不良信息。
“因此,如果骯臟的數據實際上構成了我們的預測性警務系統,那么你就是在把我們幾十年來看到的偏見和歧視植入這些在許多方面都飽受聲譽的系統,”Crawford說,“人們總是在說,這些系統是中性的,所以它們一定不存在偏見。但是現在你可以看到,惡性循環的出現,正是因為這些訓練數據。”
為了更加形象化地說明這一問題,Whittaker舉出了一個最基本和最規范的例子。Whittaker說:“比如你正在向機器學習系統展示1億張貓的圖片,但是你只展示了白色貓。所以,這個系統雖然能夠識別貓,但可能會誤識別深色貓。”我們可以向機器學習系統展示任何龐大的數據語料庫,它也通過這些數據來模擬世界,它只反映了數據中的內容。因此我們所提供的數據是非常重要的,我們也必須意識到它們確實存在問題。
意識到問題的存在,接下里就應該給出解決方案。Crawford說:“這正是整個行業正在爭論的事情,即如何創造所謂的公平數據修正。我們該如何清理數據?如何讓人工智能變得中立和公平?”但是Crawford表示,隨著她們所做的研究越多,就越擔心這種簡單化的技術解決方案,因為解決方案最終仍然受數據生產的文化影響,如果這些數據是歷史的,那么你就是在把過去的歷史偏見引入未來的工具。
所以,真正重要的是,誰在掌握著這個世界,誰在制造這些系統,他們又在試圖解決什么類型的問題。
如今,人工智能的工作方式產生了很大的變化。在很多情況下,你甚至不知道后臺是人工智能系統在做決策。Crawford以人力資源系統為例:“很多公司正在使用人工智能系統掃描求職簡歷,以決定你是否值得面試。”聽上去,這極大的提升了人力資源部門的效率,但亞馬遜所研發的一個人工智能系統打破了這種美好的幻想。
據報道,亞馬遜耗時兩年,設計了一個人工智能自動簡歷掃描儀。但是該公司后來發現,該系統對所有女性申請者都存在偏見,以至于如果你的簡歷上出現了“女性”這個詞,都會被排至末尾。
“這件事告訴,自動化這些工具實際上比你想象的要困難得多,因為亞馬遜擁有一些非常棒的工程師,他們明確知道自己在做什么,也不希望這樣的結果,因為他們沒有發布這個工具。但這件事卻透露了另一個重要細節,即他們所使用的訓練數據,基本上都是來自白人樣本,”Crawford說。
顯然,要想讓這些系統能夠發揮原本的作用,讓它們成為中立和客觀的完美系統,我們必須更加挑剔。“這就是Whittaker和我成立這家研究所的原因,我們想要能夠通過研究,對這些人工智能系統進行審核,”Crawford說道。
實際上,行業里的很多公司也已經開始了自我審核,比如谷歌和Facebook。有些甚至成立了道德委員會,希望能夠逆轉來自文化上的歧視。
在被問及政府監管問題時,Crawford表示對美國還沒有任何形式的聯邦隱私法感到驚訝:“這在當今時代有點不尋常,到目前為止,只有州一級存在類似法案,比如加州就通過了全美最強的隱私法案,2020年生效。”
當然,很多人依然對此感到不滿,尤其是與歐洲相比較。歐盟于2018年推行了通用數據保護條例(GDPR),雖然不是一項完美的立法,但卻在國際上產生了影響。這也讓美國政府面臨著尷尬的境地,因為美國企業可能會受到其他國家的監管。
Crawford說:“我認為現在是開始制定法規、實現法規的關鍵時刻。這也將是未來五年里最重要的事情之一。聯邦政府需要對人工智能及其附屬技術如何被監管做出決策。”
Klobuchar參議員提出,可以使用罰款等手段來加強聯邦貿易委員會的資金來源。而NancyPelosi也表示應該成立一個與AI相關的聯邦機構歐來監控數據。
“這將會是一場大辯論!”Crawford說道。“在成立相關機構的過程中,需要眾多專家的建議。比如在醫療保健領域,你需要醫生和護士工會,你需要了解美國保險系統的神秘運作方式。你需要把他們放在與人工智能專家平等的位置上,通過實際行動來驗證和確保這些系統是安全和有益的。”
-
谷歌
+關注
關注
27文章
6231瀏覽量
108088 -
服務器
+關注
關注
13文章
9786瀏覽量
87905 -
人工智能
+關注
關注
1806文章
48996瀏覽量
249207
原文標題:人工智能作惡誰之過?
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
數據服務器與數據中心需求激增——精確功率測量的重要意義
服務器數據恢復—Linux系統服務器崩潰的數據恢復案例
如何在RAKsmart服務器上實現企業AI模型部署
如何在RakSmart服務器上用Linux系統部署DeepSeek
服務器數據恢復—如何預防服務器故障與恢復服務器數據!
云硬盤掛載到新服務器,怎么恢復數據?
香港云服務器怎么部署MySQL數據庫?
服務器數據恢復—Linux網站服務器硬盤出現壞扇區的數據恢復案例
應用和數據庫部署在不同的物理服務器上有什么優點?
服務器數據恢復—xfs文件系統服務器數據恢復案例
雙電源無擾動快切裝置的小型化設計是否有意義?

評論