在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

科學家真正信任人工智能之前,首先需要去理解機器是如何學習的

bzSh_drc_iite ? 來源:未知 ? 作者:李倩 ? 2018-10-29 14:59 ? 次閱讀

As machine learning infiltrates society, scientists are trying to help ward off injustice.隨著機器學習對社會各領域的滲透,科學家正努力去防止一些不公平的現象產生。

Illustration by Mario Wagner

一、背景人工智能無處不在,但在科學家真正信任人工智能之前,首先需要去理解機器是如何學習的。

隨著人工智能技術的應用,計算機的決策會逐漸被人們所接受,但一些決策可能會影響人們的生活。比如,機器學習算法應用于虐童家庭預測和犯罪預測等。每天頭條新聞都有人說孩子們處于危險中,而算法正在幫助公共部門改善兒童的危險處境。2015年,Rhema Vaithianathan在賓夕法尼亞州匹茲堡解釋了軟件怎么樣幫我們改善兒童的危險處境。從匹茲堡的早期運行效果來看,算法預測分析技術似乎是兒童保護領域在過去20年間最令人興奮的創新之一。在刑事司法領域,算法預測分析也已經被確立為法官和假釋委員會的工具。

這些算法預測工具應該是一致、準確、嚴謹的。但對這些工具的監督卻非常有限,因為沒有人知道有多少人在使用這樣的工具。2016年有美國記者稱判定未來犯罪風險的系統會歧視黑人被告,算法運作本身的保密性(不透明性)激起了公眾更為強烈的不滿,而且大部分算法是由私營公司所開發、銷售和嚴密保護的。

在這樣的背景下,政府也在嘗試讓這樣的軟件更具可解釋性。2017年12月11日,美國紐約市議會通過了《算法問責法案》,以解決算法歧視問題。根據該法案,紐約市將成立一個由自動化決策系統專家和受自動化決策系統影響的公民組織代表組成的工作組,專門監督市政機構使用的自動決策算法的公平性、問責性和透明度。該小組負責推動政府決策算法開源,使公眾了解市政機構自動化決策的過程,并就如何改進算法問責制和避免算法歧視提出了一些建議。

今年年初,法國稱會將政府使用的算法進行公開。6月英國政府發布了《數據倫理框架》,要求在公共領域使用數據要滿足透明性和可解釋性。5月底實施的歐盟GDPR中的內容也在推進算法可解釋性。

Rhema Vaithianathan建立算法來幫助標記少兒虐待的案例

科學家正面臨一個復雜的問題,就是算法公平到底意味著什么?像Vaithianathan這樣正在與公共組織協作去建立負責、高效的軟件的研究人員,必須解決的難題就是自動化的工具如何引入偏見或擴展當前的不平等性,尤其是當這種工具被應用到本來就有歧視的社會系統時。

理論計算機科學家Suresh Venkatasubramanian稱,自動化決策工具軟件引發的問題其實并不是新問題。評定犯罪或信用風險的工具已經存在數十年了。但隨著更大的數據集和更復雜的模型的廣泛應用,就不能忽視其中存在的倫理問題。

二、對公平的權衡

2014年,當Allegheny人類服務部的官員提出使用自動化的工具時,他們并沒有決定是否要使用這些工具。但他們想公開這樣的新系統。該部門數據分析研究和評估辦公室副主任Erin Dalton說,“他個人非常反對使用政府資金提出黑盒的解決方案”。

Allegheny Family Screening Tool (AFST)項目是2016年8月發起的。對每個打進熱線的電話,呼叫中心職員會看到一個自動風險評定系統給出的分值,范圍為1~20,分值越大代表風險越高。目前的情況是呼叫中心職員得出的結論并不必須與算法給出的風險分值一致,但政府部門希望這兩個結果能夠保持一致性。

預測犯罪改革

隨著AFST項目的應用,Dalton希望有更多的人能幫助發現該系統是否存在偏見。2016年,她與卡內基梅隆大學的數據分析師Alexandra Chouldechova一起分析了該軟件是否對特定群體存在歧視。Chouldechova也一直在研究算法本身可能存在的一些偏見。

今年5月,新聞網站ProPublica報道說佛羅里達州Broward縣法官使用了一款可以幫助決定罪犯在審判前是否可以保釋的商業軟件COMPAS。記者通過分析發現該軟件對黑人被告存在偏見,因為該軟件對黑人的打分有很大比例是假陽性的,也就是說軟件給出的風險值很高,但在之后被沒有被控訴。COMPAS算法的開發者稱該工具是沒有偏見的,在預測評分較高的白人被告和黑人被告再犯罪的準確率是相當的。

三、如何定義公平(FAIR)

研究算法偏見的研究人員說有許多方法來定義公平,而其中一些方法是互相矛盾的。

假設刑事司法使用的系統可以給兩組人(藍色和紫色)評定再次被捕的風險。歷史數據表明,紫色組被捕的概率略高,所以模型更容易會將紫色組的人分類為高風險。即使模型開發人員盡力去彌補這種偏見,但模型根據數據集的學習可能也會得出這樣的關聯。

高風險的狀態不能完美預測被捕率,但算法開發者嘗試讓預測是公正的:對兩組人來說,高風險對應2年內被捕的概率是2/3。未來被捕的概率可能不會遵循過去的模型。但舉一個簡單的例子,假設藍色組中有3/10最終被捕,紫色組中有6/10最終被捕。

在藍色組中,1/7的人被誤認為是高風險的;紫色組中,1/2的人被誤認為是高風險的。所以紫色組看起來更像是“假陽性的”——被誤認為是高風險的。

因為藍色和紫色組成員以不同的比例被再次逮捕,所以很難去得到一個預測的公平性,也無法讓假陽性率相等。有人就會認為紫色組的假陽性率太高本身就是一種歧視。但也有研究人員認為這并不足以說明算法存在偏見。

事實上,有很多的方法來定義公平。那么從數學的角度講,計算機科學家Arvind Narayanan在今年2月的會議上做了題為“21 fairness definitions and their politics”的演講。一些研究人員也研究了ProPublica的案例,他們認為這確實不足以證明算法存在偏見;但確實映射出了一種統計假象。

有些人認為ProPublica強調許多機構缺乏資源和合適的算法評估工具。芝加哥大學數據科學和公共政策中心主任Rayid Ghani說,雇傭Northpointe的政府機關沒有給他們一個好的定義,政府需要學習和訓練如何向這些系統尋求幫助,如何定義度量的標準來確保供應商、咨詢者和研究者給出的系統的公平的。

Allegheny縣的經驗說明了駕馭這些問題的難度。Chouldechova發現他們的公司也存在同樣的統計不平衡性。該模型有一些不想要的特征,這種錯誤率在種族和民族方面的期望要高很多,但是原因尚不清楚。Allegheny縣和Vaithianathan團隊也在考慮使用其他的模型來降低這種不平衡性。

雖然統計不平衡性是一個問題,算法中的不公平可能會加強社會中的不公平現象。比如, COMPAS這樣的算法可能會用來預測未來犯罪情況,但只能利用一些可度量的指標來進行預測,比如再次被捕。即使我們準確預測了一些事情,但我們準確預測的事情也可能是不公平的。

卡姆登(美國新澤西州)的檢查用自動化工具來預測哪些區域需要巡邏。

圖片來源:Timothy Clary/AFP/Getty

Allegheny使用的工具同樣飽受詬病。作家、政治學者Virginia Eubanks說,不論算法是不是準確的,輸入本身就是不公平的,因為黑人和兩種人種(兩種膚色結合)的家庭更容易被舉報。而且,因為該模型使用的數據是Allegheny系統中的公共服務信息,因為使用這些服務的家庭總體來說比較窮,所以算法對這種家庭更多監管本身也是不公平的。Dalton承認數據本身是有限的,但她認為這樣的工具還是很有必要的。

四、算法透明性和限制

芝加哥大學、劍橋大學、斯坦福等高校和科研機構都在進行這類算法的研究。地區檢察官辦公室分析師Maria McKee說,“我們知道什么是對的,什么是公平的,但是我們沒有工具或研究成果來準確地解釋。”

算法確實需要更多的透明性,當算法不審計、不評審、不進行公開討論、形成閉環的時候就會產生一些問題。但算法如何公開也是一個問題,而且算法的透明性和隱私性也可能會存在沖突。泄漏太多算法工作原理的信息可能會讓有些人去探測系統。

算法審計的一個障礙是機構不會收集預測工具使用的過程信息和性能信息。算法不透明的原因是因為沒有可共享的信息。California立法機關起草了一個法案草案,呼吁風險評定工具幫助減少被告必須支付保釋金的頻率,因為人們認為這是一種懲罰低收入被告的方式。Goel希望該法案批準收集法官不同意工具產生的結果的情況。這樣做的目的是在維護公共安全的同時盡量減少監禁的情況。因為需要一些正當程序(due process)基礎設施來確保算法是可審計的。今年4月,AI Now Institute就列出了公共機構感興趣的算法決策工具負責任的應用,還呼吁社區參與來給予市民申訴有關自己的決策的能力。

許多人也希望法律可以強制實現這樣的目標。在美國,一些消費者保護規則在有不利于公民的決策產生時,會給公民一個詳細的解釋。在法國,關于解釋的權利和爭議處理的立法可以追溯到20世紀70年代。

最大范圍的一次測試就是歐盟的GDPR,該法案于今年5月25日正式實施。其中的一些條款看似在推動算法可審計性,比如自動決策過程實例中的邏輯相關信息的權利等。但牛津互聯網研究院數據倫理學家Brent Mittelstadt認為,GDPR也可能會阻礙算法可審計性。因為它為那些需要評估公平性的人創造了一個雷區。

測試算法是否存在偏見最好的辦法就是讓相關人員了解相關的屬性。但GDPR對敏感信息使用的限制太嚴厲、罰金太高,以致評估算法的公司可能沒有太多的動機去處理這些信息。所以說,這對我們評估公平性的能力來說可能是一種限制。

而且一些GDPR的規則只適用于全自動化的系統,這會將那些算法做出參考決策、人類做最終決定的情況排除在外。

五、算法審計

同時,研究人員正在向那些并未受到公共監管的領域中的算法歧視進行檢測。企業可能并不愿意去討論他們是如何解決公平性的,因為這首先承認了他們存在公平性的問題。即使存在這樣的問題,企業的行為可能也只是去緩解而不是徹底消除歧視。最近,微軟和Facebook都聲明正在開發檢測算法歧視的工具。

還有研究人員嘗試從外部去找出商業算法中的歧視問題。比如,通過向求職網站投遞簡歷來檢測性別歧視問題。今年5月,Ghani發布了一個開源軟件Aequitas,該軟件可以幫助工程師、政策制定者、數據分析師等來審計機器學習模型中的歧視問題。

還有研究人員選擇了不同的研究方向。比如,刑事司法應用和其他領域目前主要是構建算法模型來預測犯罪。還有一種更好的方式就是找出人們犯罪的影響因素,然后進行干預,達到降低犯罪率的目的。

Vaithianathan目前仍在繼續推廣她的虐童預測模型,同時她也意識到需要構建更好的算法。在復雜的系統中,算法不可能像直升機一樣直上直下,必須要有理解全局的人來幫助實施。但無論如何都會遇到一些挑戰,所以在沒有直接答案和完美解決方案之前,算法透明應該是最好的策略。

“If you can't be right,

be honest.”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1804

    文章

    48599

    瀏覽量

    245970
  • 機器學習
    +關注

    關注

    66

    文章

    8487

    瀏覽量

    133986
  • 數據集
    +關注

    關注

    4

    文章

    1222

    瀏覽量

    25259

原文標題:Nature:機器學習的偏見

文章出處:【微信號:drc_iite,微信公眾號:全球技術地圖】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    離職亞馬遜加盟英偉達,明星女科學家擔綱英偉達機器學習研究

    9月14日,人工智能知名女科學家Anima Anandkumar宣布即將擔任英偉達(NVIDIA)機器學習研究負責人(Director of Machine Learning Rese
    的頭像 發表于 09-17 13:36 ?6012次閱讀

    《AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    人工智能科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習
    發表于 10-14 09:12

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    。 4. 對未來生命科學發展的展望 在閱讀這一章后,我對未來生命科學的發展充滿了期待。我相信,在人工智能技術的推動下,生命科學將取得更加顯著的進展。例如,在藥物研發領域,AI技術將幫助
    發表于 10-14 09:21

    了解AI人工智能背后的科學?

    是了解最初部署人工智能的原理。 組織有大量的數據,通過關注快速建立成功和建立信任是關鍵。例如,讓我們將電子郵件指標作為客戶行為的可能預測因素。 您可以從機器學習開始回答以下問題:√根據
    發表于 09-25 10:03

    前百度深度學習研究院科學家分享:機器視覺開發實戰經驗

    其實就是計算機科學的一個分支,將來也是會成為人類社會基礎設施的一部分。現在我們邀請來百度深度學習研究院科學家,為大家分享人工智能視覺開發的經驗。點擊報名直播觀看:http
    發表于 07-20 11:06

    人工智能機器學習的前世今生

    可以交替使用的概念,這或多或少地加重了與這些概念相關聯的已經存在的混淆程度。讓我們領會這些概念,直截了當地理解它們的內涵和之間的細微差別。人工智能是一個比機器學習更廣泛的概念。它是關于
    發表于 08-27 10:16

    前百度科學家鄧亞峰第二期直播福利,360G的人工智能資料等你來拿!

    直播PPT下載:人工智能學習資料:https://pan.baidu.com/s/1W99e8vdbF8xgX_0Y1uiEqw 密碼:hnol直播主題:讓機器“看見”—計算機視覺入門及實戰 第二期
    發表于 08-31 14:24

    機器能超越真正的人類嗎?人工智能未來發展如何?

    評為“全世界最有影響力的計算機科學家”。   盡管他在AI界極富盛名又桃李滿天下,喬丹本人卻對“人工智能”這個概念不太感冒。他反復強調“機器沒有智能,我們甚至還不
    發表于 10-03 09:26

    人工智能——MATLAB圖像處理及機器學習

    視覺、通訊、計算金融學、控制設計、機器人學等等。 為了幫助大家更好的學習機器學習和圖像處理,我們上線了《人工智能—MATLAB圖像處理及機器
    發表于 07-01 15:05

    人工智能后續以什么形式發展?

    從2014年開始,人工智能逐漸成為科技領域最熱門的概念,被科技界,企業界和媒體廣泛關注。作為一個學術領域,人工智能是在1956年夏季,以麥卡賽、明斯基、羅切斯特和申農等為首的一批有遠見卓識的年輕科學家在一起聚會,共同研究和探討用
    發表于 08-12 07:53

    python人工智能/機器學習基礎是什么

    python人工智能——機器學習——機器學習基礎
    發表于 04-28 14:46

    物聯網人工智能是什么?

    智能的,但是并不真正擁有智能,也不會有自主意識。 二、人工智能應用領域人工智能已經滲透到人類生活的各個領域,游戲,媒體,金融,建材等行業,并
    發表于 09-09 14:12

    什么是人工智能機器學習、深度學習和自然語言處理?

    領域,包括機器學習、深度學習、數據挖掘、計算機視覺、自然語言處理和其他幾個學科。首先人工智能涉及使計算機具有自我意識,利用計算機視覺、自然
    發表于 03-22 11:19

    機器學習人工智能有什么區別?

    機器學習人工智能有什么區別?當今唯一可用的軟件選項是 ML 系統。在十年左右的時間里,當計算能力和算法開發達到可以顯著影響結果的地步時,我們將見證第一個真正
    發表于 04-12 08:21

    人工智能領域科學家排名

    2017年,“人工智能”成為一個熱門詞匯。隨著人工智能領域學術研究和技術應用的進步,人工智能正在與各行各業形成融合,推動各個行業和社會經濟的發展。在人工智能時代,全球有哪些受人矚目的
    發表于 04-08 20:21 ?1.7w次閱讀
    <b class='flag-5'>人工智能</b>領域<b class='flag-5'>科學家</b>排名
    主站蜘蛛池模板: 天天爽夜夜爽人人爽一区二区 | 美日毛片| 天天欧美 | 亚洲一级色 | 女女同免费播放毛片 | 激情福利视频 | 黄色网日本| 亚洲色图视频在线 | 东北老女人啪啪对白 | 天天看天天干 | 熊出没之环球大冒险旧版免费观看 | 欧美ol丝袜高跟秘书在线观看 | 久久精品乱子伦免费 | 天天干天天色天天干 | 国产成人精品亚洲日本在线 | 婷婷99 | 国产成人经典三级在线观看 | 久久草在线看 | 成人夜色视频网站在线观看 | 欧美黄页网 | 午夜tv| 美女扒开内裤让男人桶 | 欧美成人一区亚洲一区 | 亚洲色图在线观看视频 | 一级特色黄大片 | 女人张开腿 让男人桶视频 女人张开腿等男人桶免费视频 | 久久99热精品免费观看无卡顿 | 国产片一区二区三区 | 色花堂国产精品首页第一页 | 35pao强力 | 一级三级黄色片 | 777欧美午夜精品影院 | 亚洲天堂成人网 | 天堂中文在线最新版地址 | 丝袜美腿视频一区二区三区 | 五月婷久久| 69pao强力打造免费高速 | 午夜高清在线观看免费6 | 在线看片一区 | 亚洲68283精品人体 | 91亚洲视频在线 |