土耳其語(yǔ)的「他」和「她」沒(méi)有性別的區(qū)分,統(tǒng)一用 O 表示。過(guò)去 Google Translate 在翻譯 o bir doktor(ta 是一位醫(yī)生)和 o bir hem?ire(ta 是一位護(hù)士)時(shí),會(huì)把前者翻譯成 He is a doctor,把后者翻譯成 She is a nurse,只因?yàn)闄C(jī)器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些「社會(huì)規(guī)律」之后,「偏向」把醫(yī)生男性化,護(hù)士女性化。
看到這個(gè)問(wèn)題后,Google 意識(shí)到要想辦法更好地訓(xùn)練模型,讓它變得更加「中立」。后來(lái) Google Translate 以增加選項(xiàng)的方式規(guī)避了這個(gè)問(wèn)題。
「當(dāng)然,該解決方案僅適用于幾種語(yǔ)言,僅適用幾個(gè)有代表性的單詞,但是我們正在積極嘗試擴(kuò)展它?!筎ulsee Doshi 在 Google I/O’19 上說(shuō)道。
這只是 Google 這家公司將先進(jìn)技術(shù)與技術(shù)價(jià)值觀合二為一的體現(xiàn)之一。上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科學(xué)家、研究學(xué)者向包括極客公園(id: geekpark)在內(nèi)的全球媒體闡釋了 Google 如何理解機(jī)器學(xué)習(xí)公平性,以及為了打造一個(gè)「負(fù)責(zé)任的 AI」,Google 做了哪些事情。
要讓 AI 被人信任這件事情變得越來(lái)越重要。
「最近一次調(diào)研中,全球 90% 的受訪高管都遇到過(guò)人工智能的倫理問(wèn)題,因此有 40% 的人工智能項(xiàng)目被放棄。從企業(yè)的角度來(lái)看,對(duì) AI 的不信任正在成為部署 AI 最大的障礙,只有在 AI 被負(fù)責(zé)任地開(kāi)發(fā)出來(lái)并且取得終端用戶信任的語(yǔ)境下,效率提升和競(jìng)爭(zhēng)優(yōu)勢(shì)才會(huì)得到充分體現(xiàn)?!筎racy Frey 說(shuō),打造一個(gè)負(fù)責(zé)任的 AI 成為 Google 上下最重要的事情之一。
兩年之前 Google 公布了 AI principles(人工智能原則),這些直指 AI 技術(shù)應(yīng)用倫理的原則包括:
· 對(duì)社會(huì)有益(Be socially beneficial)
· 避免建立和加劇不公的偏見(jiàn)(Avoid creating or reinforcing unfair bias)
· 保障建立和測(cè)試安全性(Be built and tested for safety)
· 對(duì)人類負(fù)責(zé)(Be accountable to people)
· 建立并體現(xiàn)隱私保護(hù)原則(Incorporate privacy design principles)
· 支持并鼓勵(lì)高標(biāo)準(zhǔn)的技術(shù)品格(Uphold high standards of scientific excellence)
· 提供并保障上述原則的可操作性(Be made available for uses that accord with these principles)
只是把這些原則停留在字面上沒(méi)有意義,Google 為此形成了一個(gè)從理論到實(shí)踐的「閉環(huán)」。Tulsee Doshi 和她的團(tuán)隊(duì)通過(guò)一些基礎(chǔ)性質(zhì)的研究建立和迭代 AI 原則、規(guī)范,作為閉環(huán)的中心,他們一邊通過(guò)向高級(jí)顧問(wèn)尋求改進(jìn)建議,一邊讓產(chǎn)品團(tuán)隊(duì)(Chrome、Gmail、Cloud 等)來(lái)實(shí)施和反饋。
Tulsee 舉了一個(gè)例子,Google 內(nèi)部孵化器 Jigsaw 曾經(jīng)開(kāi)發(fā)了一個(gè)名叫 Perspective 的 API,它的工作就是在網(wǎng)絡(luò)對(duì)話、評(píng)論中尋找各種各樣的言論,自動(dòng)評(píng)價(jià)它們是否帶有仇恨、辱罵、不尊重等行為,從 0-1 代表「毒性」從低到高。
比如「我想抱抱這只可愛(ài)的小狗」和「這只小狗也太討厭了吧」分別評(píng)分為 0.07 和 0.84。
當(dāng)然機(jī)器也不是從一開(kāi)始就「完美無(wú)瑕」。在 2017 年的 1.0 版本中,它給「我是直男」打分 0.07 分,給「我是同性戀」打分 0.84 分,與之相似的很多測(cè)試中,系統(tǒng)都被證實(shí)帶著身份認(rèn)知上的偏見(jiàn)。
為了提升機(jī)器學(xué)習(xí)的公平性,Google 內(nèi)部研發(fā)了一項(xiàng)名為對(duì)抗訓(xùn)練(Adversarial Training)的技術(shù)——如何使機(jī)器學(xué)習(xí)模型對(duì)抗樣本更魯棒。2018 年開(kāi)始,對(duì)抗訓(xùn)練開(kāi)始應(yīng)用在 Google 產(chǎn)品中。緊接著今年 11 月,Google 會(huì)將此應(yīng)用在 TensorFlow 更加廣泛的生態(tài)里。
「事實(shí)上,任何一位 Googler 都可以對(duì)一款產(chǎn)品、一份研究報(bào)告、一項(xiàng)合作進(jìn)行 AI 原則審查。」Tulsee 說(shuō)道。
比如去年,一位 Google 員工將照片跑在 Cloud Vision API 上時(shí)發(fā)現(xiàn)自己的性別被搞錯(cuò)了,而這違反了 AI 原則的第二條「避免建立和加劇不公的偏見(jiàn)」。
發(fā)生這樣的失誤很好理解,單單從外表一個(gè)維度,機(jī)器很難正確地判斷出一個(gè)人的性別,所以后來(lái) Google 干脆取消 Cloud Vision API 將圖像中的人標(biāo)記為「男人」或「女人」的標(biāo)簽功能。
Tracy Frey 稱這是因?yàn)榻裉鞕C(jī)器學(xué)習(xí)面臨社會(huì)語(yǔ)境下的挑戰(zhàn)比以前更多了。在 AI 深入社會(huì)的過(guò)程中,必然有人類的刻板印象和偏見(jiàn)被帶入 AI,所以需要對(duì)模型進(jìn)行迭代,保證其透明性和可解釋性,找準(zhǔn)模型性能和公平之間的平衡點(diǎn)。
責(zé)編AJX
-
谷歌
+關(guān)注
關(guān)注
27文章
6203瀏覽量
106094 -
AI
+關(guān)注
關(guān)注
87文章
31734瀏覽量
270522 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8447瀏覽量
133130
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論