AI 迎來另一寒冬?這是 2018 年下半年至今我們一直能聽到的一種聲音。這類唱衰的文章一經(jīng)發(fā)布,總是能博人眼球。這篇發(fā)表在 Medium 上的文章探討了 AI 的歷史和現(xiàn)在,泛談了深度學(xué)習(xí)的局限性,思考 AI 寒冬的到來。你認(rèn)同這篇文章的觀點嗎?
許多人認(rèn)為,算法可以利用認(rèn)知意識來超越人類。機器可以在沒有人類干預(yù)的情況下識別和學(xué)習(xí)任務(wù)。他們完全可以「思考」。許多人甚至提出了我們是否可以打造機器人配偶的問題。
但以上的討論并非今天才出現(xiàn)的話題。如果我告訴你早在上世紀(jì) 60 年代,AI 領(lǐng)域先驅(qū) Jerome Wiesner、Oliver Selfridge 和 Claude Shannon 就堅信這些將發(fā)生在不遠(yuǎn)的將來,你會作何感想?
讓我們回到 1973 年,彼時 AI 炒作遇冷。英國議會指定 James Lighthill 爵士起草英國人工智能研究現(xiàn)狀報告,該報告批評人工智能研究沒有達(dá)到其所宣稱的效果。有趣的是,Lighthill 還指出了專門的程序(或編程人員)比 AI 表現(xiàn)要好得多,AI 在現(xiàn)實世界環(huán)境中沒有前景。因此,英國政府取消了所有 AI 研究經(jīng)費。
在大洋彼岸,美國國防部也曾斥巨資開展 AI 研究,但在遇到同樣的挫折后也取消了幾乎所有經(jīng)費,這些挫折包括:對 AI 能力的夸大、高成本無回報,以及在現(xiàn)實世界中看不到期望的價值。
到了 20 世紀(jì) 80 年代,日本在人工智能領(lǐng)域大膽嘗試,提出了「第五代計算機」項目。然而,在耗費了 8.5 億美元之后,這一項目不幸流產(chǎn)。
首個 AI 寒冬
20 世紀(jì) 80 年代末,AI 進(jìn)入寒冬,這是計算機科學(xué)的一段黑暗時期,組織和政府所支持的人工智能研究都交付失敗,造成了沉沒成本。這樣的失敗使 AI 研究消沉數(shù)十年。
到了 20 世紀(jì) 90 年代,「AI」成了一個罵人的詞,這種狀況一直持續(xù)到 21 世紀(jì)初。那時人們普遍相信「AI 沒什么用」。編寫智能程序的軟件公司使用的詞是「搜索算法」、「業(yè)務(wù)規(guī)則引擎」、「約束求解器」、「運籌學(xué)」。值得一提的是,這些珍貴的工具的確來自 AI 研究,但由于沒有完成更偉大的使命,它們不得不換了個名字。
2010 年左右,情況發(fā)生了轉(zhuǎn)變。人們對 AI 的熱情重新燃燒起來,圖像分類競賽吸引了媒體的眼球。硅谷坐擁海量數(shù)據(jù),首次達(dá)到可以讓神經(jīng)網(wǎng)絡(luò)發(fā)揮作用的程度。
到了 2015 年,AI 研究已經(jīng)占據(jù)了財富 500 強公司的大筆預(yù)算。通常,這些公司是由于 FOMO(害怕錯過)而不是實際用例驅(qū)動的,他們害怕被自己的競爭對手甩在后面。畢竟,擁有一個能夠識別圖像中物體的神經(jīng)網(wǎng)絡(luò)是一件酷炫的事情!外行認(rèn)為天網(wǎng)(SkyNet)具備的強大能力一定會出現(xiàn)。
但這真的是在向真正的人工智能邁進(jìn)嗎?或許只是重演歷史,只不過這一次有很多成功用例。
AI 到底是什么?
我曾經(jīng)很不喜歡「人工智能」這個詞。它的概念模糊又深遠(yuǎn),且更多的是被營銷人員而不是科學(xué)家來定義。當(dāng)然,市場營銷和流行語可以說是刺激積極變化和擁抱新思想的必要條件。然而,流行語又不可避免地會導(dǎo)致混亂、模糊。我的新智能手機有「AI 鈴聲」功能,在嘈雜的環(huán)境下會自動加大鈴聲。我想大概那些可以用一系列「if」條件句或簡單線性函數(shù)編程的東西都能叫「AI」吧。
如此,人們對「AI」的定義存在廣泛爭議也就不足為奇了。我喜歡 Geoffrey De Smet 的定義,他認(rèn)為「AI 解決方案」針對的是那些答案不明和/或存在不可避免誤差的問題。這樣就包括了從機器學(xué)習(xí)到概率和研究算法的很多工具。
也可以說,AI 的定義在不斷發(fā)展,并只包括突破性進(jìn)展,而昨日的成功(如光學(xué)字符識別和語言翻譯)則不再被視為「AI」。因此「AI」是一個相對的術(shù)語,并不絕對。
近年來,「AI」常與「神經(jīng)網(wǎng)絡(luò)」綁在一起,這也將是本文的重點。當(dāng)然,還有其它的「AI」解決方案,如機器學(xué)習(xí)模型(樸素貝葉斯、支持向量機、XGBoost)和研究算法。但神經(jīng)網(wǎng)絡(luò)無疑是當(dāng)前最熱門、最受追捧的技術(shù)。
AI 的「文藝復(fù)興」?
2010 后,AI 宣傳再次變得火熱的原因僅僅是因為掌握了一項新任務(wù):分類。具體來說,利用神經(jīng)網(wǎng)絡(luò),科學(xué)家開發(fā)了一些有效的方法來對大多數(shù)類型的數(shù)據(jù)(包括圖像和自然語言)進(jìn)行分類。甚至自動駕駛汽車也屬于分類任務(wù),汽車周圍道路的每張圖像被轉(zhuǎn)化為一組離散動作(汽車、剎車、左轉(zhuǎn)、右轉(zhuǎn)等)。
在我看來,自然語言處理比單純的分類要更令人印象深刻。人們很容易認(rèn)為這些算法是有感知的,但如果你仔細(xì)研究它們,你會發(fā)現(xiàn)它們依賴的是語言模式而不是有意識構(gòu)建的思想。這會帶來一些有趣的結(jié)果,比如這些機器人會為你操控騙子:
自然語言處理最令人印象深刻的壯舉可能是 Google Duplex,它能讓你的手機代你打電話,特別是預(yù)約。但是,你要知道 Google 可能只是為這個特定任務(wù)訓(xùn)練、構(gòu)建甚至硬編碼了該「AI」。當(dāng)然,Google Duplex 的聲音聽起來很自然,有停頓,如「啊…嗯」,不過,這些仍是通過對語音模式進(jìn)行操作來完成的,而不是通過實際推理和思考。
所有這些都令人印象深刻,并且肯定有一些有用的應(yīng)用。但我們的確需要降低期望并停止宣傳「深度學(xué)習(xí)」的能力了。否則,我們可能會發(fā)現(xiàn)自己陷入另一個 AI 寒冬。
歷史總是相似的
康奈爾大學(xué)的 Gary Marcus 寫了一篇關(guān)于深度學(xué)習(xí)天花板的文章,并提出了幾個發(fā)人深省的觀點(這篇文章傳播開來后,他又寫了一份有趣的續(xù)篇)。Rodney Brooks 則整理時間表,并通過引用的研究來追蹤其人工智能炒作周期預(yù)測。
持懷疑觀點的人有幾個共同點。神經(jīng)網(wǎng)絡(luò)需要大量數(shù)據(jù),而即使在今天,數(shù)據(jù)也是有限的。這也是為什么你在 YouTube 上看到的「游戲」AI 示例需要連續(xù)幾天不斷地輸?shù)粲螒颍钡缴窠?jīng)網(wǎng)絡(luò)找到獲勝模式。
神經(jīng)網(wǎng)絡(luò)的「深度」在于它們有多層節(jié)點,而不是因為它對問題有深度理解。這些層還使神經(jīng)網(wǎng)絡(luò)難以理解,甚至其開發(fā)者都無法理解。最重要的是,神經(jīng)網(wǎng)絡(luò)觸及其他問題空間(如旅行推銷員問題,TSP)時會出現(xiàn)回報減少的情況。為什么在搜索算法更有效、更可擴展、更經(jīng)濟的情況下,我還要用神經(jīng)網(wǎng)絡(luò)解決 TSP 問題?當(dāng)然了,很多人想使用神經(jīng)網(wǎng)絡(luò)解決該問題,但有趣的是,神經(jīng)網(wǎng)絡(luò)似乎很少超過任何專門算法。
Luke Hewitt 在《The Unreasonable Reputation of Neural Networks》一文中給出了最好的解釋:
僅僅基于單個任務(wù)就憑直覺判斷智能機器能夠用得多廣或有多大能力并不是什么好主意。20 世紀(jì) 50 年代的下棋機器驚艷了研究人員,許多人將其作為邁向人類水平推理的一大步,但我們現(xiàn)在意識到,在該游戲中達(dá)到或超越人類水平比達(dá)到人類水平通用智能容易得多。實際上,即使是最優(yōu)秀的人類也會輕易被簡單的啟發(fā)式搜索算法打敗。人類或超人類的表現(xiàn)不一定是在大多數(shù)任務(wù)中接近人類表現(xiàn)的墊腳石。
我認(rèn)為應(yīng)該指出的是,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要利用許多軟件,消耗大量能量。我感覺這是不可持續(xù)的。當(dāng)然,神經(jīng)網(wǎng)絡(luò)預(yù)測的效率比它訓(xùn)練出來的要高得多。然而,我認(rèn)為,為了實現(xiàn)人們在神經(jīng)網(wǎng)絡(luò)上的野心,神經(jīng)網(wǎng)絡(luò)需要更多訓(xùn)練,消耗的能量、成本將指數(shù)級增長。當(dāng)然,計算機越來越快,但芯片制造商能否繼續(xù)維持摩爾定律?
出于這些原因,我認(rèn)為又一個 AI 寒冬即將到來。越來越多的專家和博主指出這些局限。企業(yè)仍然斥巨資招募最好的「深度學(xué)習(xí)」和「AI」人才,但我認(rèn)為企業(yè)意識到深度學(xué)習(xí)并非它們所需只是時間問題。更糟的是,如果你的公司沒有谷歌那樣的研究預(yù)算、博士人才或海量用戶數(shù)據(jù),那么你很快就會發(fā)現(xiàn)你所實踐的「深度學(xué)習(xí)」前景有限。
每個 AI 寒冬之前總會出現(xiàn)很多科學(xué)家夸張、炒作其研究的潛力。他們并不滿足于稱自己的算法能做好一項任務(wù),而是想讓算法適應(yīng)任意任務(wù),或者至少給人這樣的印象。例如,AlphaZero 擅長棋類游戲,于是媒體的反應(yīng)是「天啊,通用人工智能到來了!機器人來了!」然后科學(xué)家沒有糾正他們,而是鼓勵他們使用此類詞匯。畢竟,降低期待不利于 VC 融資。盡管有一些局限,但 AI 研究者仍然人格化其算法,他們可能出于其他原因,這更像是一個哲學(xué)問題,而非科學(xué)問題。本文最后將討論這個問題。
那么,接下來呢?
當(dāng)然并非所有使用「機器學(xué)習(xí)」或「AI」的企業(yè)實際上使用的是「深度學(xué)習(xí)」。一個好的數(shù)據(jù)科學(xué)家可能會受雇去構(gòu)建神經(jīng)網(wǎng)絡(luò),但是在她真正研究這個問題時,構(gòu)建樸素貝葉斯分類器似乎更合適。對于成功使用圖像識別和語言處理技術(shù)的公司而言,它們將樂此不疲。但是我認(rèn)為神經(jīng)網(wǎng)絡(luò)并沒有走出這些問題空間。
之前的 AI 寒冬對拓寬計算機科學(xué)的邊界具有很大的破壞性。必須指出有用的工具出自此類研究,如可以在國際象棋比賽中奪冠或在交通問題中最小化成本的搜索算法。簡而言之,這些出現(xiàn)的創(chuàng)新性算法通常只擅長一項特定任務(wù)。
我想表達(dá)的是,很多問題已經(jīng)有許多被證實有效的解決方案。要想順利度過寒冬,你最好專注于你想解決的問題并理解其本質(zhì),然后為該問題提供一個直觀的解決方案路徑。如果想對文本信息進(jìn)行分類,你或許想使用樸素貝葉斯分類器。如果嘗試優(yōu)化交通網(wǎng)絡(luò),你或許應(yīng)該使用離散優(yōu)化。不用管同輩壓力,你可以對卷積模型抱著適當(dāng)?shù)膽岩蓱B(tài)度,并質(zhì)疑它的正確性。
如果你不買畢達(dá)哥拉斯學(xué)派的帳,那你最大的努力也就是讓 AI「模擬」行為,創(chuàng)造出它有情感與思想的錯覺。
關(guān)于深度學(xué)習(xí)不是解決其中大部分問題的正確方法,這篇文章解釋的非常明了。不要嘗試為自己的問題尋求一種通用的 AI 解決方案,因為你找不到的。
我們的想法真的是點積嗎?哲學(xué) vs 科學(xué)
本文最后,我想說比起科學(xué)問題,這更像是一個哲學(xué)問題。我們的每一個想法和感覺只是一些以線性形式相乘、相加的數(shù)字嗎?我們的大腦只是一個整天做點積運算的神經(jīng)網(wǎng)絡(luò)嗎?將人類意識簡化為數(shù)字矩陣,這聽起來像畢達(dá)哥拉斯學(xué)派。或許這正是很多科學(xué)家認(rèn)為可能出現(xiàn)通用人工智能的原因。
如果你不相信畢達(dá)哥拉斯學(xué)派,那么你所能做的就是讓 AI「模擬」一種幻象,即它擁有情緒和想法。一個完全不理解中文的翻譯程序可以通過尋找概率模式來模擬出自己理解中文的假象。那么,當(dāng)你的手機「識別」出狗狗的照片時,它真的認(rèn)識狗嗎,還是它只是看到了它曾見過的數(shù)字模式?
在這篇文章的評論區(qū),有讀者提出了質(zhì)疑:
@Toby Walsh:
本文開頭有一個經(jīng)典錯誤,作者表示「因此,英國政府取消了所有 AI 研究經(jīng)費。」這種說法是不對的。Lighthill 的報告的確導(dǎo)致 AI 經(jīng)費減少,但有些地方的 AI 研究仍舊受到政府資助,比如愛丁堡大學(xué)(我的 AI 方向博士學(xué)位就是 20 世紀(jì) 80 年代受英國政府資助在愛丁堡大學(xué)取得的)、艾塞克斯大學(xué)和薩塞克斯大學(xué)。實際上,在 Lighthill 的報告出來十年之后,阿爾維計劃(Alvey programme)甚至還大幅增加了 AI 的研究經(jīng)費。
@Owen Liu:
我認(rèn)為深度學(xué)習(xí)架構(gòu)確實快到極限,但其「應(yīng)用」并不是這樣。
第一種類型:深度強化學(xué)習(xí)成功結(jié)合了深度學(xué)習(xí)函數(shù)逼近器和傳統(tǒng)強化學(xué)習(xí)(如動態(tài)規(guī)劃),并作出了巨大貢獻(xiàn),開創(chuàng)了學(xué)術(shù)研究的多種可能性。未來可能會有更多此類例子。
第二種類型:幾乎沒有自動駕駛汽車直接使用神經(jīng)網(wǎng)絡(luò)控制汽車。深度學(xué)習(xí)通常作為感知任務(wù)中的一個模塊。決策、軌跡追蹤和控制都是通過其它算法實現(xiàn)的(如優(yōu)化技術(shù))。深度學(xué)習(xí)可用作改變行業(yè)的大系統(tǒng)中的一部分(沒有深度學(xué)習(xí),自動駕駛汽車幾乎無法在真實的復(fù)雜環(huán)境中獲得任何合理的結(jié)果)。
是的,工具本身正在走向極限,炒作也將慢慢熄火,但深度學(xué)習(xí)仍然是非常有用的工程技術(shù)。
@Kristian:
文章第一部分很不錯,但我對后面的內(nèi)容有些失望。這篇文章并沒有真正討論目前機器學(xué)習(xí)方法的技術(shù)局限,比如它們離模擬真正神經(jīng)系統(tǒng)還非常遙遠(yuǎn),也因此可能缺乏實現(xiàn)通用智能系統(tǒng)所需的靈活性和效率。
-
AI
+關(guān)注
關(guān)注
88文章
35008瀏覽量
278754 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5560瀏覽量
122748
原文標(biāo)題:深度學(xué)習(xí)已經(jīng)觸底?這篇文章的觀點令人信服嗎?
文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
《AI Agent 應(yīng)用與項目實戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用
軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇
ChirpIoT技術(shù)的優(yōu)勢以及局限性
AI自動化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制中的應(yīng)用

AI干貨補給站 | 深度學(xué)習(xí)與機器視覺的融合探索

AI大模型與深度學(xué)習(xí)的關(guān)系
探討差分信號的優(yōu)缺點
直流輸電的優(yōu)勢與局限性
微通道反應(yīng)器目前的局限性
WDM技術(shù)的缺點和局限性
【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)
訊維AI教學(xué)分析軟件系統(tǒng)的核心優(yōu)勢
深度學(xué)習(xí)算法在嵌入式平臺上的部署
打破系統(tǒng)局限性:來自de next-TGU8-EZBOX的能量釋放

評論