近日《連線》雜志發表了一篇文章,記錄了與“深度學習之父” Geoffrey Hinton 圍繞人工智能倫理、技術、學術等領域的采訪實錄。當被問到如今人工智能是否將走進寒冬時,Hinton 的回答非常堅決:“不會有‘人工智能寒冬’。因為 AI 已經滲透到你的生活中了。在之前的寒冬中,AI 還不是你生活的一部分。但現在它是了。”
在 20 世紀 70 年代早期,一位名叫 Geoffrey Hinton(杰弗里·辛頓)的英國研究生開始構建簡單的數學模型,以說明人類大腦中的神經元是如何在視覺上理解世界的。“人工神經網絡”,正如其名,幾十年來仍被視為一種不切實際的技術。但在 2012 年,Hinton 和他在多倫多大學的兩名研究生 Alex Krizhevsky、Ilya Sutskever 通過人工神經網絡來提高計算機識別照片中物體的準確性,他們設計的深層卷積神經網絡 AlexNet,也一舉奪得了當年 ImageNet LSVRC 的冠軍。僅僅半年后,Google 公司收購了這三位研究人員創立的創業公司。至此,卷積神經網絡(CNN)也由此將深度學習推進了新的歷史階段。
在此之前,人工智能不為多數人知曉,而今卻已是硅谷炙手可熱的話題。
在上周蒙特利爾舉辦的 G7 人工智能會議上,《連線》雜志采訪了 Hinton,此次會議的主要參講嘉賓來自世界領先的工業化經濟體,他們共同討論了鼓勵人工智能發展的益處,以及如何減少失業和偏見學習算法的缺陷問題。
以下采訪經過編輯整理如下:
Wired:加拿大*** Justin Trudeau 在七國集團會議上表示,人工智能帶來的道德挑戰問題需要更好的得到解決。對此您怎么看?
Geoffery Hinton:我一直擔心致命的自主武器可能會被濫用。我認為應該像《日內瓦公約》禁止化學武器那樣禁止它們。即使不是每個人都簽署這項協議,但它實際上扮演著的是一種道德象征。你會注意到誰沒有簽署。
Wired:據了解,有 4500 多名 Google 的員工簽署了一封抗議五角大樓合約的信件,其中涉及了將機器學習應用于無人機圖像。Google 聲稱這并非用于攻擊性用途。您當時簽署了這封信嗎?
Geoffery Hinton:作為一名 Google 高管,我不認為這是我能公開投訴的地方,所以我私下會抱怨這個問題。我沒有簽署這封信,但我與 Google 的聯合創始人謝爾蓋·布林談過。他說他對此也有點不太高興,他們也不會追求這樣的事情。
Wired:Google 的領導者決定完成但不續簽合同。他們發布了一些有關使用人工智能的指導方針,其中包括不使用該技術制造武器的承諾。
Geoffery Hinton:我認為 Google 做出了正確的決定。會有各種各樣的問題需要云計算解決,所以很難能劃分出一個比較清晰的界限,從某種意義上這也是隨機的。看到 Google 最后制定的底線我還是尤為高興的。這種原則對我來說很有意義。
Wired:人工智能也可以在日常情況下出現道德問題。例如,當軟件在用于社會服務或醫療保健中給出判斷時,我們應該注意些什么?
Geoffery Hinton:我是一名試圖將技術發揮作用的專家,不是社會政策方面的專家。在這方面,從我技術的角度來看,監管機構應該決定是否堅持:你可以解釋你的 AI 系統是如何工作的。我認為這是一場徹底的災難。
對于自己所做的大多事情,人們根本是無法解釋的。當你聘請某人,你將取決于各種可以量化的事情進行判斷,然后才是你的直覺。人們不清楚自己是如何完成這個決策的。如果你非要他們解釋這個原因,那你就是在強迫他們編造一個故事。
神經網絡同樣也有類似的問題。當你訓練神經網絡時,它將學習十億個數字,這些數字代表著它從訓練數據中提取的知識。如果你輸入一張圖片,做出正確的判斷如“這是一個行人”。但如果你問“為什么會這么想?”如果有任何簡單的規則來判斷圖像是否包含行人,那么這個問題早就被解決了。
Wired:那我們怎么能知道何時能信任這些系統呢?
Geoffery Hinton:你應該根據系統的表現進行規范,即運行幾組實驗看看這個系統是否存在偏差。對于自動駕駛汽車,我想現在人們開始接受了這一概念。即使你不太了解自動駕駛汽車是如何做到這一點的,但如果事故發生的次數遠遠少于人類駕駛汽車的次數,那這是一件好事。我認為我們必須像對待人們那樣去做:你只看到它們的表現,如果反復出現問題,那就說明它們不那么好了。
Wired:您之前提到,思考大腦的工作方式可以激發你對人工神經網絡的研究。我們的大腦通過感覺器官突觸連接的神經元網絡獲取信息;人工神經網絡則通過數學神經元網絡提供數據,并通過“權重”進行連接。在此前發表的一篇論文中,您和幾位共同作者認為應該做更多的工作來解釋大腦工作的學習算法。為什么?
鏈接:https://arxiv.org/abs/1807.04587
Geoffery Hinton:這套算法解決的問題與我們大多數神經網絡有很大不同。人腦大約有 100 萬億個突觸。人工神經網絡擁有的數量通常至少小 1 萬倍。人腦使用大量的突觸從而盡可能多地從幾個片段中學習。深度學習擅長在神經元之間使用更少的“連接”進行學習。我認為大腦并不關心將大量知識壓縮到幾個“連接”中,它關注的是通過大量“連接”快速提取知識。
Wired:我們如何構建功能更強大的機器學習系統?
Geoffery Hinton:我認為我們需要轉向另一種計算。幸運的是,我這里就有一個。(這是一款來自英國初創公司 Graphcore 的原型芯片,用于加速機器學習、深度學習算法實現。)
幾乎我們運行神經網絡模型的所有計算機系統,甚至包括 Google 的特殊硬件,都使用 RAM 存儲。從 RAM 中獲取神經網絡的權重需要耗費大量的計算資源,所以處理器可以幫忙解決。一旦每個系統都確保獲得了權重,處理器就會不斷計算。這是一項巨大的成本,也就是說你根本無法改變你為每個訓練樣本耗費的資源。
在 Graphcore 的芯片上,權重存儲在處理器中的高速緩存中,而不是存儲在 RAM 中,也不需要移動,因此,事情就變得比較簡單了。可能我們會得到一個系統,比如一萬億個權重。這更像是人腦的規模。
Wired:最近人工智能和機器學習的興趣和投資熱潮意味著研究資金比以往任何時候都多。該領域的快速增長也是否帶來了新的挑戰?
Geoffery Hinton:社區面臨的一個巨大挑戰是,如果你想發表一篇機器學習的論文,那么論文中就一定要有劃分了不同數據集的數據表格做支撐,還要有不同的方法,且方法必須看起來最優。如果不是這樣的話,那么這篇論文有可能很難發表。我不認為這種方式鼓勵了人們可以大膽思考。
如果你有一篇全新觀點的論文,那么就不一定能有機會評審通過。因為一些年輕的評審員并不理解這篇論文觀點。再或者,放在資深評審員面前,他又會因為評審了太多論文,一時意識不到這篇論文究竟是不是無稽之談。任何有悖于大腦(常理)的事情都不會被接受。所以,我認為這非常糟糕。
我們應該做的,特別是在基礎科學會議上,是誕生一個全新的想法。因為從長遠來看,我們知道一個全新的想法會比一個細微的改進更有影響力。我認為現在出現這一本末倒置的原因,就是因為有了一大批年輕人和一小部分資深人士構成的評審隊伍。
Wired:那么這會損害該領域的進展嗎?
Geoffery Hinton:只需要等幾年,這種不平衡將自行糾正。這也是暫時的。企業正忙著教育用戶,大學正忙著教育學生,大學將最終聘請該領域更多的學者教授,一切將走向正規。
Wired:一些學者警告說,目前的炒作可能會像 20 世紀 80 年代那樣進入“人工智能寒冬”,當時是用于研究進展不符合預期,而人們對 AI 的興趣以及資金支持枯竭了。
Geoffery Hinton:不,不會有“人工智能寒冬”。因為 AI 已經滲透到你的生活中了。在之前的寒冬中,AI 還不是你生活的一部分。但現在它是了。
-
人工智能
+關注
關注
1799文章
47959瀏覽量
241257 -
神經元
+關注
關注
1文章
368瀏覽量
18533 -
深度學習
+關注
關注
73文章
5523瀏覽量
121718
原文標題:“深度學習之父”大談AI:寒冬不會出現,論文評審機制有損創新
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
一文速覽:人工智能(AI)算法與GPU運行原理詳解

評論