幾個機器學習面試問題解析從容應對面試
▍目錄
全局
優化
數據預處理
抽樣和拆分
監督學習
無監督學習
模型評估
集成學習
商業應用
▍全局
基本的ML理論,如偏差方差權衡。
向外行人解釋機器學習。
想象一個好奇的孩子,將他的手掌放在蠟燭火焰上,并在感受到短暫的灼熱后立刻把手縮回來。第二天,他碰到一個熱的爐子,頂部看到紅色,感覺到前一天像蠟燭一樣的熱浪。
這個孩子從來沒有碰過爐灶,但幸運的是,他從以前的數據中學到了,避免了紅色的灼傷。
“擬合”模型意味著什么?超參數如何相關?
擬合模型是使用訓練數據學習模型參數的過程。
參數有助于定義機器學習模型的數學公式。
然而,還有一些稱為超參數的數據不能被學習的“較高級”參數。
超參數定義模型的屬性,如模型復雜度或學習率。
解釋偏差方差權衡。
預測模型在偏差(擬合模型數據的方式)和方差(基于輸入變化的多少)之間有權衡。
更簡單的模型是穩定的(低方差),但它們不接近真相(高偏差)。
更復雜的模型更容易被過度使用(高差異),但它們具有足夠的表達能夠接近真實性(低偏倚)。
給定問題的最佳模式通常位于中間的某處。
▍優化
找到模型最佳參數的算法。
隨機梯度下降(SGD)和梯度下降(GD)之間有什么區別?
兩種算法都是通過對數據進行參數評估,然后進行調整,找到一組最小化損失函數的參數的方法。
在標準梯度下降中,您將評估每組參數的所有訓練樣本。這類似于為解決這個問題而采取了大而緩慢的步驟。
在隨機梯度下降中,在更新參數集之前,您只需評估1個訓練樣本。這類似于向解決方案邁出的小步驟。
什么時候使用GD超過SDG,反之亦然?
GD理論上最大限度地減少誤差函數比SGD更好。然而,一旦數據集變大,SGD就會收斂得更快。
這意味著GD對于小數據集是優選的,而SGD對于較大的數據是優選的。
然而,實際上,SGD用于大多數應用程序,因為它可以將誤差函數最小化,同時為大型數據集提供更快的速度和更高的內存效率。
▍數據預處理
處理丟失的數據,偏態分布,異常值等
什么是Box-Cox轉換?
Box-Cox轉換是一種廣泛的“權力轉型”,它轉換數據,使分布更加正常。
例如,當lambda參數為0時,它相當于對數轉換。
它用于穩定方差(消除異方差)并使分布正常化。
什么是3種數據預處理技術來處理異常值?
1.Winsorize(cap 閾值)。
2.轉換以減少偏態(使用Box-Cox或類似的)。
3.如果你確定它們是異常或測量錯誤,請刪除異常值。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%