在機器學習領域,每個給定的建模問題都存在幾十種解法,本文作者認為,模型算法的假設并不一定適用于手頭的數據;在追求模型最佳性能時,重要的是選擇適合數據集(尤其是“大數據”)的模型算法。
統計建模和工程開發很相似。
在工程開發中,人們有多種方法搭建一套鍵-值存儲系統,每種設計針對使用模式有一套不同的假設。在統計建模中,也有很多算法來構造一個分類器,每種算法對數據也有各自的假設集合。
當處理少量數據時,因為實驗成本很低,我們盡可能多的嘗試各種算法,從而選出效果最優的算法。但提到“大數據”,提前分析數據,然后設計相應“管道”模型(預處理,建模,優化算法,評價,產品化)是事半功倍的。
正如在我以前的文章里提到,每個給定的建模問題都存在幾十種解法。每個模型會提出不同的假設條件,我們也很難直觀辨別哪些假設是合理的。在業界,大多數從業人員傾向于挑選他們熟悉的建模算法,而不是最適合數據集的那個。在這篇文章中,我將分享一些常見的認識誤區(要避免的)。在今后的文章中再介紹一些最佳實踐方法(應該做的)。
1. 想當然地使用默認損失函數
很多從業者喜歡用默認的損失函數(比如平方誤差)來訓練和選擇最優模型。事實上,默認的損失函數很少能滿足我們的業務需求。拿詐騙檢測來說。當我們檢測詐騙交易時,我們的業務需求是盡量減少詐騙帶來的損失。然而現有二元分類器默認的損失函數對誤報和漏報的危害一視同仁。對于我們的業務需求,損失函數不僅對漏報的懲罰要超過誤報,對漏報的懲罰程度也要和詐騙金額成比例。而且,詐騙檢測的訓練數據集往往正負樣本極度不均衡。在這種情況下,損失函數就要偏向于照顧稀少類(如通過升/降采樣等)。
2. 用普通線性模型處理非線性問題
當需要構建一個二元分類器時,很多人馬上就想到用邏輯回歸,因為它很簡單。但是,他們忘記了邏輯回歸是線性模型,非線性因素的交叉特征需要靠手工編碼處理。回到剛才詐騙檢測的例子,要獲得好的模型效果,就需要引入“帳單地址=送貨地址 && 交易金額《$ 50”之類的高階交叉特征。因此,在處理包含交叉特征的問題上我們應該盡可能選擇非線性模型,比如有核函數的SVM,或者基于樹的分類器。
3.忽視異常值
異常值很有意思。根據上下文情況,它們要么需要被特別處理,要么應該被完全忽略。就拿收入預測來說。如果觀察到收入有異常尖峰,我們可能要加倍注意他們,并分析是什么原因造成這些峰值。但如果異常值是由于機械誤差、測量誤差或者其它任何非普遍化因素導致的,那我們最好在準備訓練數據之前過濾掉這些異常值。
有些模型算法對異常值非常靈敏。比如,AdaBoost 會對它們“倍加關注”,賦予一個相當大的權重值。相反,決策樹就簡單地把它們當做錯誤分類來處理。如果數據集包含相當數量的異常值,那么,使用一種具有異常值魯棒性的建模算法或直接過濾掉異常值是非常重要的。
4. 樣本數遠小于特征數時使用高方差模型
SVM是最流行的建模算法之一,它的強大功能之一就在于用不同核函數去擬合模型。SVM內核被認為是可以自發組合現有特征,從而形成更高維度特征空間的方法。由于獲得這項強大功能的代價幾乎忽略不計,大多數人在訓練SVM模型時默認使用核函數。然而,當訓練樣本數遠遠少于特征維度時(n《《p)—— 常見于醫學數據——高維特征空間數據過擬合風險會隨之增加。事實上,在上述情況下我們應該完全避免使用高方差模型。
5. 不做沒有標準化的L1/L2正則化
使用L1或L2正則化是線性回歸或邏輯回歸懲罰權重系數值過大的常用方法。然而,許多人在使用這些正則化方法時都沒有意識到標準化的重要性。
再回到詐騙檢測,設想一個把交易金額作為特征的線性回歸模型。如果不做正則化,當交易金額以美元為單位時,其擬合系數將會是以美分為單位時的100倍。同時,因為L1/L2正則化對系數值大的項懲罰更重,美元作為單位時交易金額這個維度將會受到更多的懲罰。因此,正則化并不是一視同仁,它往往在更小尺度上懲罰特征。為了緩解這一問題,需要在預處理過程中標準化所有特征,使它們處在平等的位置。
6.不考慮線性相關就使用線性模型
假設構建一個含有X1和X2兩個變量的線性模型,真實的模型是Y = X1 + X2。理想情況下,如果數據僅含有少量噪點,線性回歸模型能夠還原真實模型。然而,如果X1和X2存在線性相關,對于大多數優化算法而言,無論Y = 2 * X1 , Y = 3 * X1-X2 還是 Y = 100 * X1-99 * X2效果都一樣好。盡管這個問題沒有造成我們預測的偏差,看上去它似乎并無大礙。但是,它使問題變得病態了,因為系數權重無法得到解釋。
7. 把線性模型或者邏輯回歸模型系數的絕對值解釋為特征重要性
因為很多現成的線性回歸方法返回每個系數的p值,很多人就認為系數的絕對值越大,對應的特征就發揮更大作用。事實并非如此,因為(一)縮放變量就會改變系數絕對值;(二)如果特征是線性相關的,其系數可以從一維特征轉移到另一維特征。此外,數據集包含的特征維度越多,特征之間就越有可能線性相關,用系數解釋特征重要性就越不靠譜。
以上就是機器學習實踐操作中的7個常見錯誤。這個列表并不完整,它只是激發讀者去思考,模型算法的假設并不一定適用于手頭的數據。在追求模型最佳性能時,重要的是選擇適合數據的模型算法,而不是你最熟悉的那個。
-
機器學習
+關注
關注
66文章
8453瀏覽量
133154
發布評論請先 登錄
相關推薦
《從實踐中學習嵌入式Linux操作系統》高清PDF資源分享!
ARM體系的七種工作模式分別是哪些
微機原理8086的七種尋址方式
![微機原理8086的<b class='flag-5'>七種</b>尋址方式](https://file.elecfans.com/web1/M00/45/9F/o4YBAFpydxeAAtWyAABaicXVuWM387.png)
評論