當一個人真正想在機器學習中取得一定成就時,他需要深入微積分、線性代數,掌握一定的統計學知識,研究的深度越深,數學基礎的重要性就越顯而易見。但是,機器學習和數學的這種緊密關系卻也會帶來誤解,現在,一些人已經傾向于把機器學習視為美化統計的手段,更有甚者,一些業內人士也開始迷失于混淆,失去了努力的方向。
隨著圍繞深度學習的炒作逐漸消退,像上圖這樣的惡搞漫畫開始出現在公眾視野里,每每看到這些圖,一些人會抱著譏諷的心態會心一笑。在他們眼里,機器學習沒什么值得興奮的,它只是傳統統計技術的新包裝,內容上換湯不換藥。這種想法正變得越來越普遍,但機器學習真的不是統計學!
雖然深度學習火了,這對機器學習來說卻不是什么好事。為了避免深度學習被誤認為是import keras就能解決一切的技術,第一批推廣深度學習的機器學習研究人員一直在淡化現代神經網絡的作用,而這種矯枉過正已經開始對學界的發展和未來造成不良影響——人們開始把它看成空中花園,討論起寒冬即將來臨,人工智能研究將陷入停滯。
正如Yann LeCun所說的那樣,深度學習如今的影響已經超過了一個普通流行詞的影響上限。
本文的目的不是討論AI是否將迎來嚴冬,也不是討論機器學習、統計學哪個更值得深入研究。相反地,由于計算機算力的大幅提高的大型優質數據集的出現,再加上深度學習的突破性成果,我們要證明,機器學習也是全球技術進步的一大重要前沿。
機器學習 != 統計學
如果你想融資,寫AI;如果你想招聘,寫ML;如果你想實現,線性回歸。——數據科學、機器學習和人工智能到底有什么區別?
首先,機器學習不等于統計學。雖然把機器學習簡單等同于統計學是個徹頭徹尾的誤解,但大家產生這種想法確實也情有可原。機器學習中普遍存在大量統計學意義上的概念和術語,比如回歸、權重、偏差、模型等。機器學習模型也經常需要用到統計函數,比如分類模型的softmax輸出是個logits,模型訓練過程中需要用到logistic回歸。
從技術上看,這樣理解沒有問題,但僅憑這幾點,我們不能把機器學習當成統計學的附屬物。事實上,這種比較是沒有意義的。統計是數據領域的東西,它涉及對數據的理解和解釋。而機器學習只不過是一類計算算法的集合(可用于分析和決策),它屬于計算機科學領域。在很多情況下,某些機器學習算法既不能分析數據,也不能構建預測模型,比如強化學習算法不需要事先準備好的數據集,圖像算法的數據也不是數學意義上的數據。
當然,這不是說機器學習取得的成就都是計算機科學的,和統計學一點兒關系都沒有。和其他任何研究領域一樣,機器學習的成功是多領域知識綜合作用的結果,統計學和數學在其中尤為明顯。然而,為了正確評估機器學習方法的強大影響和潛力,首先我們必須要認識到,人工智能的現代發展不等于計算機算力提高+數據集+統計學。
機器學習不需要高級統計知識
這里我們舉個例子。當我開始學機器學習時,我選上了一門深度學習課。這是我本科必修課的一部分,當時老師要求我們在TensorFlow中實現并訓練Wasserstein GAN。
需要注意的是,我只上過這么一節和深度學習有關的必修課,而且課程知識都忘的差不多了。不用說,我的統計學也不咋地。但是,通過閱讀論文,我能理解GAN是什么,然后從頭開始實現它。在MS Celebs數據集上完成訓練后,最后我們生成了非常逼真的虛假圖像。
同樣是在這門課上,我和同學還訓練了可以分割癌細胞組織圖像的模型、機器翻譯模型、文本分類模型和圖像風格遷移模型,它們用的都是近幾年最先進的技術。但是如果你問我們該怎么計算人口的方差、怎么計算邊際概率,大多數人會一臉懵逼。
看得出來,這和那些人眼里的機器學習不太一樣。
確實,在深度學習領域,專家比學生有著更深厚的統計學基礎。一般而言,信息理論需要對數據和概率有很強的理解,如果要我對想成為數據科學家、機器學習工程師的新人提建議,我也會讓他們好好學習統計學。但是盡管如此,幾乎沒有統計學背景的人確實可以深入理解尖端的ML概念,這直接證明ML不是統計學的附屬物。
還應該承認的一點是,撇開神經網絡,一些機器學習算法確實要求學習者、使用者有更強的統計和概率背景,但即便這些方法通常被稱為統計機器學習、統計學習,它們比常規的統計學理論要淺顯得多。再說近幾年機器學習的進展幾乎都是神經網絡,它們和統計的關系就更遠了。
如今所有領域都在呼吁跨學科研究,機器學習也不例外。換句話說,ML研究人員學習統計知識只不過是為了處理各種類型的數據,這里不存在上層下層關系。
機器學習=表征+評估+優化
捫心自問,我們確實在算法、優化算法、微積分、線性代數甚至概率論上有扎實基礎,但這些數學知識是我們處理問題的工具,它們和高級統計知識不搭邊。
機器學習是一類計算算法,它們通過迭代計算某個目標函數的近似形式。華盛頓大學計算機科學教授Pedro Domingos曾指出機器學習算法由三個部分組成:表征、評估、優化。
表征指的是把輸入從一個空間映射進另一個空間,從而使輸入更容易被理解。以卷積神經網絡為例,無論輸入圖像是貓是狗,神經網絡是無法根據這些原始像素直接分類的,因此我們要把像素轉換成網絡更容易解釋和評估的表征。
評估基本就是損失函數。你的算法會如何有效地把數據映射進更有用的空間?你的softmax輸出和one-hot編碼標簽(分類)有多接近?你的模型是否正確預測了展開文本序列的下一個單詞?……這些內容向你展示了模型的性能情況,更重要的是,他們也定義了模型將要學習的內容。
優化是算法的最后一塊內容。當你開始評估自己的模型時,你會希望模型的代表性功能能再強化一下,得分也再高一些,這時你就要用到優化。在神經網絡中,這同樣意味著用一些隨機梯度下降的變量根據損失函數優化網絡的權重和偏差。
在訓練圖像分類器時,除了定義適當的損失函數,我們不要求模型函數的輸出有邏輯。這意味著雖然我們用了像logistic回歸這樣的統計函數,而且它確實為定義模型空間提供了有效信息,但它沒有把優化問題轉成數據理解問題。
深度學習技巧
為了把統計學更徹底地剝離出去,我們來看深度學習。深層神經網絡內部的工作機制幾乎是全新的一套體系,縱使完全連接節點由權重和偏差組成,那么卷積層呢?Rectifier activations呢?Batch normalization呢?Residual layers呢?Dropout呢?注意力機制呢?
這些創新對深層神經網絡性能的提高至關重要,它們和傳統統計技術沒有可比性。如果不信,你可以指著自己VGG-16 ConvNet問統計學家:我的模型過擬合,怎么辦?看看他們是否覺得你可以隨意丟棄1億個參數里的5000萬個。
更不用說,深度學習根本不在意模型的可解釋性。
新的前沿
在過去幾年里,你可能已經在論文、新聞、社交網絡上看過機器學習的無數炫酷應用,這里我們不再具體介紹。我要告訴你的是,無論是機器學習還是深度學習,現在它們能做的事更多。
在2012年以前,對非結構化數據和半結構化數據的解構還只是挑戰。那之后,學界出現訓練完備的CNN和LSTM,實現了人類歷史上的巨大跨越。而現在,計算機視覺、自然語言處理、語音轉錄等領域已經取得了相當大的進步,人臉識別、智能助理、無人車等相關產品也已經落地應用,這是前人不敢想象的。
確實,大多數機器學習算法最終都涉及擬合數據,但它相對過去是一種進步。航天飛機也不過是一個帶翅膀的飛行器,不是嗎?但我們并沒有看到有人用漫畫嘲諷NASA進行太空探索,也沒有嘲諷航天飛機是飛機的過度包裝產品。
和太空探索一樣,深度學習的出現并沒有解決世界上所有的問題,它在很多地方還面臨重大挑戰,尤其是“人工智能”領域。盡管如此,它為我們解決復雜非結構化數據問題做出了重大貢獻。未來,機器學習將繼續代表全球技術進步和創新的前沿。
-
機器學習
+關注
關注
66文章
8441瀏覽量
133088 -
深度學習
+關注
關注
73文章
5516瀏覽量
121556
原文標題:不!機器學習不是美化后的統計學
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
如何選擇云原生機器學習平臺
AFE4900如果4路都作為不同光譜的PPG使用,會有什么樣的問題?
什么樣的電阻柜用于風電光伏項目
什么是機器學習?通過機器學習方法能解決哪些問題?
![什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法能解決哪些問題?](https://file.elecfans.com/web2/M00/4E/DC/poYBAGLCjeiALm_WAAAYmfR7Qec474.png)
NPU與機器學習算法的關系
請問TLV320AIC3268的ADC轉換后的數據格式是什么樣的?
代碼整潔之道-大師眼中的整潔代碼是什么樣
![代碼整潔之道-大師眼中的整潔代碼是<b class='flag-5'>什么樣</b>](https://file1.elecfans.com//web2/M00/05/C9/wKgZombesjCAGIWdAAHN7xWKtsQ450.png)
評論