在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么GBDT用回歸樹(shù)不用分類(lèi)樹(shù)?CART決策樹(shù)是怎么計(jì)算基尼值呢?

冬至子 ? 來(lái)源:宅碼 ? 作者:Ai ? 2023-07-28 15:00 ? 次閱讀

一、背景

集成學(xué)習(xí)Boosting一族將多個(gè)弱學(xué)習(xí)器(或稱(chēng)基學(xué)習(xí)器)提升為強(qiáng)學(xué)習(xí)器,像AdaBoost, GBDT等都屬于“加性模型”(Additive Model),即基學(xué)習(xí)器的線(xiàn)性組合。1997年Freund和Schapire提出的AdaBoost,它是先從初始訓(xùn)練集訓(xùn)練出一個(gè)基學(xué)習(xí)器,然后基于基學(xué)習(xí)器的在這一輪的表現(xiàn),在下一輪訓(xùn)練中給預(yù)測(cè)錯(cuò)的訓(xùn)練樣本更大權(quán)重值,以達(dá)到逐步減少在訓(xùn)練集的預(yù)測(cè)錯(cuò)誤率。這種訓(xùn)練機(jī)制像不像做一套卷子,有些重難點(diǎn)題做不出來(lái),那下次又給你做同樣的卷子,但不同的是:之前你做錯(cuò)的重難點(diǎn)題占有很大的分值比重,這樣你會(huì)將更多重心放在了這些難題上,從而提高你的學(xué)習(xí)表現(xiàn)。那除了這種方式,還有沒(méi)有其他方法攻克考題上的重難點(diǎn)?有,就是死磕到底,找到這題錯(cuò)在哪?基于此錯(cuò)誤繼續(xù)去做這道題,直到做對(duì)為止。這跟GBDT [1] 的工作機(jī)制就很像了,它是先產(chǎn)生一個(gè)弱學(xué)習(xí)器(CART回歸樹(shù)模型),訓(xùn)練后得到輸入樣本的殘差,然后再產(chǎn)生一個(gè)弱學(xué)習(xí)器,基于上一輪殘差進(jìn)行訓(xùn)練。不斷迭代,最后加權(quán)結(jié)合所有弱學(xué)習(xí)器得到強(qiáng)學(xué)習(xí)器。GBDT的一個(gè)應(yīng)用示意圖如下(某樣本預(yù)測(cè)值 = 它在不同弱學(xué)習(xí)器所在葉子節(jié)點(diǎn)輸出值的累加值):

圖片

圖1:GBDT應(yīng)用示意圖

二、GBDT

第二部分目錄如下:

1.背景知識(shí)

  • GBDT弱學(xué)習(xí)器
  • GBDT模型框架

2.GBDT回歸

3.GBDT分類(lèi)

  • GBDT二分類(lèi)
  • GBDT多分類(lèi)

1. 背景知識(shí)

GBDT可用于回歸和分類(lèi)任務(wù)。在深入了解它在回歸或分類(lèi)任務(wù)上的訓(xùn)練細(xì)節(jié)之前,我們先了解一些相關(guān)的背景知識(shí)。

(1)GBDT弱學(xué)習(xí)器

決策樹(shù)是IF-THEN結(jié)構(gòu),它學(xué)習(xí)的關(guān)鍵在于如何選擇最優(yōu)劃分屬性。西瓜書(shū) [2] 提到:“隨著劃分過(guò)程不斷進(jìn)行,我們希望決策樹(shù)的分支結(jié)點(diǎn)所包含的樣本盡可能屬于同一類(lèi)別,即結(jié)點(diǎn)的“純度”(Purity)越來(lái)越高”。衡量純度的指標(biāo)有多種,因此對(duì)應(yīng)有不同類(lèi)型的決策樹(shù)算法,例如ID3決策樹(shù) (以信息增益Information Gain作為屬性劃分標(biāo)準(zhǔn)),C4.5決策樹(shù) (以增益率Gain Ratio選擇最優(yōu)劃分屬性),CART決策樹(shù) (使用基尼指數(shù)Gini Index)來(lái)選擇劃分屬性。

決策樹(shù)那么多種,為什么GBDT的弱學(xué)習(xí)器就限定使用CART決策樹(shù)?

A: 原因如下所示 (具體細(xì)節(jié)不展開(kāi)):

  • ID3決策樹(shù)只支持類(lèi)別型變量,而C4.5和CART支持連續(xù)型和類(lèi)別型變量。
  • C4.5適用于小樣本,CART適用于大樣本。

CART決策樹(shù)是怎么計(jì)算基尼值呢?

A: 假設(shè)當(dāng)前數(shù)據(jù)集D中第k類(lèi)樣本所占比例為圖片 (k=1,2,…,圖片),則基尼值為:

圖片

圖片反映了從數(shù)據(jù)集D隨機(jī)抽取兩個(gè)樣本,其類(lèi)別標(biāo)記不一致的概念,因此越小,數(shù)據(jù)集D的純度越高?;诖?,屬性a的基尼指數(shù)定義為:

圖片

假設(shè)屬性a有V個(gè)可能的取值{圖片},則圖片是指第v個(gè)分支結(jié)點(diǎn)包含D中所有在屬性a上取值為圖片的樣本。圖片是給分支結(jié)點(diǎn)賦予權(quán)重,獲得樣本數(shù)更多的結(jié)點(diǎn),影響更大。

舉個(gè)具體計(jì)算基尼指數(shù)的例子,假如按照“芯片為高通驍龍865和非高通驍龍865進(jìn)行機(jī)型檔位劃分”:

圖片

表1:基尼指數(shù)計(jì)算樣例集

當(dāng)芯片為高通驍龍865時(shí),有旗艦機(jī)2個(gè),中端機(jī)1個(gè):

圖片

當(dāng)芯片非高通驍龍865時(shí),有中端機(jī)1個(gè),低端機(jī)1個(gè):

圖片

最后,特征”芯片”下數(shù)據(jù)集的基尼指數(shù)是:

圖片

為什么GBDT用回歸樹(shù),不用分類(lèi)樹(shù)?

A: 因?yàn)镚BDT要計(jì)算殘差,且預(yù)測(cè)結(jié)果是通過(guò)累加所有樹(shù)結(jié)果得到的。因此分類(lèi)樹(shù)沒(méi)法產(chǎn)生連續(xù)型結(jié)果滿(mǎn)足GBDT的需求。

(2)GBDT模型框架

圖片

圖2:GBDT算法實(shí)現(xiàn)流程圖及偽代碼 [3]

GBDT的偽代碼如圖2所示,假設(shè)我們有個(gè)樣本集圖片,想用M個(gè)弱學(xué)習(xí)器加性組合成GBDT強(qiáng)學(xué)習(xí)器,我們得按以下步驟進(jìn)行實(shí)現(xiàn) (詳情參考 [4]):

1)初始化一個(gè)弱學(xué)習(xí)器圖片。它使損失函數(shù)圖片最小化,具體如下:

圖片

這里圖片是什么呢?請(qǐng)接著看下去,假設(shè)這里損失函數(shù)為平方損失,則對(duì)圖片求導(dǎo):

圖片

由于這里的損失函數(shù)為凸函數(shù),所以只要令上面這個(gè)導(dǎo)數(shù)為0即可,那么可以求得:

圖片

因此,圖片是所有訓(xùn)練樣本標(biāo)簽值的均值,它是一個(gè)常數(shù),所以弱學(xué)習(xí)器圖片就只有一個(gè)根節(jié)點(diǎn)。

圖片

注意:圖片因損失函數(shù)不同而不同。

2)迭代訓(xùn)練m = 1, 2, … , M棵樹(shù)。

(a)對(duì)每個(gè)樣本i = 1, 2, …, N,計(jì)算負(fù)梯度:

圖片

(b)將上步(a)得到的負(fù)梯度圖片作為新樣本值,將新數(shù)據(jù)圖片, I = 1, 2, …, N作為下顆樹(shù)的訓(xùn)練數(shù)據(jù),擬合得到新樹(shù),新樹(shù)上的葉子節(jié)點(diǎn)區(qū)域?yàn)?img src="http://file1.elecfans.com/web2/M00/8E/33/wKgZomTDZzGAXF34AAACE3D9N-c154.jpg" alt="圖片" />(j = 1, 2, …,圖片,其中圖片為葉子結(jié)點(diǎn)的個(gè)數(shù))。

(c)對(duì)每個(gè)葉子節(jié)點(diǎn)j = 1, 2, …,圖片 ,計(jì)算最佳擬合(即使損失函數(shù)最小,擬合葉子節(jié)點(diǎn)最好的輸出值):

圖片

(d)更新強(qiáng)學(xué)習(xí)器:

圖片

圖片是CART回歸樹(shù)模型的表達(dá)式,其中J是指數(shù)據(jù)集被劃分為J個(gè)單元(即葉子節(jié)點(diǎn)),圖片是第m輪迭代訓(xùn)練下,CART樹(shù)第j個(gè)單元的輸出值。而圖片是指示函數(shù),若圖片,則I=1,否則I=0。這里第m輪下的強(qiáng)學(xué)習(xí)器 = 第m-1輪下的強(qiáng)學(xué)習(xí)器 + 第m輪的弱學(xué)習(xí)器。

3)輸出最終學(xué)習(xí)器GBDT:

圖片

上述公式展示的就是一系列弱學(xué)習(xí)器累加后得到強(qiáng)學(xué)習(xí)器的結(jié)果。

負(fù)梯度和殘差的關(guān)系是什么?

A: 負(fù)梯度是函數(shù)下降最快的方向,也是GBDT目標(biāo)函數(shù)下降最快的方向,所以,我們用負(fù)梯度去擬合模型。而殘差只是一個(gè)負(fù)梯度的特例,當(dāng)損失函數(shù)為均方損失時(shí),負(fù)梯度剛好是殘差(這點(diǎn)在上面 "對(duì)圖片求導(dǎo)" 處有做假設(shè)展示)。

2. GBDT回歸

上面”GBDT通用框架”就是以平方損失為損失函數(shù)的一種GBDT回歸模型學(xué)習(xí)過(guò)程,不同損失函數(shù)導(dǎo)致使用的負(fù)梯度不同,因此也就產(chǎn)生了不同的GBDT回歸算法,總結(jié)了下GBDT回歸模型所用的損失和負(fù)梯度如下:

圖片

表2:GBDT回歸樹(shù)常用損失函數(shù)及負(fù)梯度 [5]

這里特別說(shuō)下Huber損失,它對(duì)于中間附近的點(diǎn) (圖片)采用均方誤差,對(duì)遠(yuǎn)離中心的異常點(diǎn) (圖片),采用絕對(duì)損失。邊界點(diǎn)δ的值受絕對(duì)損失函數(shù)而不是平方誤差損失控制,定義了這些被認(rèn)為是“離群點(diǎn)”的殘差值。總的來(lái)說(shuō),Huber結(jié)合了均方差和絕對(duì)損失,在抵抗長(zhǎng)尾誤差分布和異常值的同時(shí),還保持了對(duì)正態(tài)分布誤差的高效率。它和分位數(shù)損失一樣,適用于穩(wěn)健回歸,用于減少異常點(diǎn)對(duì)損失函數(shù)的影響。

3. GBDT分類(lèi)

由于分類(lèi)有二分類(lèi)和多分類(lèi)任務(wù),所以GBDT分類(lèi)有所區(qū)別,這里分開(kāi)對(duì)它們進(jìn)行展開(kāi)解釋?zhuān)?/p>

** (1) GBDT二分類(lèi)**

我們上面也講到了,GBDT本質(zhì)上就是一系列弱學(xué)習(xí)器之和:

圖片

而GBDT分類(lèi)跟邏輯回歸的思路是類(lèi)似的,將圖片的作為下列函數(shù)的輸入,便可以得到類(lèi)別概率值:

圖片

假設(shè)樣本獨(dú)立且同分布,極大似然估計(jì)(即選取合適的參數(shù)使被選取的樣本在總體中出現(xiàn)的可能性最大)的損失函數(shù)為:

圖片

為了方便對(duì)損失函數(shù)求導(dǎo),會(huì)加入對(duì)數(shù),求最大對(duì)數(shù)似然估計(jì):

圖片

上面的損失函數(shù)并非最終的函數(shù),而是最大似然估計(jì)函數(shù)(數(shù)值越大越好),由于損失函數(shù)應(yīng)該使越小越好,所以要對(duì)上面的L取相反數(shù),同時(shí)為了得到平均到每個(gè)樣本的損失值,要除以樣本數(shù)N,這樣得到了最終的損失函數(shù):

圖片

對(duì)損失函數(shù)計(jì)算負(fù)梯度:

圖片

由此看來(lái),GBDT負(fù)梯度即為殘差,表示真實(shí)概率和預(yù)測(cè)概率的差值。接下來(lái)計(jì)算過(guò)程跟著GBDT通用框架進(jìn)行就好了。

** (2) GBDT多分類(lèi)**

GBDT多分類(lèi)原理跟Softmax一樣的,假設(shè)我們有k個(gè)類(lèi)別,將圖片作為以下函數(shù)的輸入,便可以類(lèi)別q對(duì)應(yīng)的概率值:

圖片

其損失函數(shù)為:

圖片

多類(lèi)別任務(wù)下,只有一個(gè)類(lèi)別是1,其余為0,假設(shè)這不為0的一類(lèi)為q,我們對(duì)它Softmax的損失函數(shù)求負(fù)梯度得:

圖片

跟二分類(lèi)一樣,本質(zhì)上負(fù)梯度就是真實(shí)概率和預(yù)測(cè)概率的插值。

三、其它

第三部分講下GBDT的其它內(nèi)容:

1. 正則化

2. 優(yōu)缺點(diǎn)

3. 與RF的對(duì)比

1. 正則化

GBDT采用了三種正則化手段:

(1)學(xué)習(xí)率v和樹(shù)數(shù)量M的平衡

我們前面得到,第m輪下的強(qiáng)學(xué)習(xí)器 = 第m-1輪下的強(qiáng)學(xué)習(xí)器 + 第m輪的弱學(xué)習(xí)器,如下:

圖片

GBDT原論文提到,樹(shù)數(shù)量越多,越容易過(guò)擬合,所以限制樹(shù)數(shù)量可以避免過(guò)擬合,但歷史研究又給出:通過(guò)收縮 (即學(xué)習(xí)率v減少) 實(shí)現(xiàn)的正則化比通過(guò)限制項(xiàng) (即樹(shù)數(shù)量M減少) 實(shí)現(xiàn)的正則化效果更好。這是什么意思呢?請(qǐng)先看下面的公式:

圖片

該公式加入了學(xué)習(xí)率v,這里跟神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率相反,如果我們學(xué)習(xí)率下降,每個(gè)樹(shù)的貢獻(xiàn)就會(huì)減低,反而還實(shí)現(xiàn)了正則化,但如果我們放開(kāi)訓(xùn)練(即不固定樹(shù)數(shù)量),只減低學(xué)習(xí)率的話(huà),GBDT還是會(huì)過(guò)擬合,因?yàn)楫a(chǎn)生了更多的樹(shù)。因此,GBDT作者建議,我們要實(shí)現(xiàn)v-M之間的權(quán)衡,理想的應(yīng)該是在正則效果合適下,學(xué)習(xí)率降低的同時(shí),也能盡可能保證樹(shù)數(shù)量少些。這里當(dāng)然也有出于對(duì)計(jì)算資源的考慮,增加M會(huì)帶來(lái)計(jì)算開(kāi)銷(xiāo)。

(2)子采樣比例

子采樣是將原數(shù)據(jù)集中抽樣一定的樣本去擬合GBDT。與隨機(jī)森林不同的是,GBDT采樣不放回抽樣,因?yàn)镚BDT串行訓(xùn)練要求所有弱學(xué)習(xí)器使用同一套樣本集,不然在不同抽樣樣本空間計(jì)算的殘差,缺乏一致性。

(3)決策樹(shù)常用正則化手段

這塊的參數(shù)都涉及到弱學(xué)習(xí)器樹(shù)本身的正則化,例如:決策樹(shù)最大深度、劃分所需最少樣本數(shù)、葉子節(jié)點(diǎn)最少樣本數(shù)、葉子節(jié)點(diǎn)最小樣本權(quán)重、最大葉子節(jié)點(diǎn)數(shù)、節(jié)點(diǎn)劃分最小不純度等。

2. 優(yōu)缺點(diǎn)

優(yōu)點(diǎn):

  • 采用基于“殘差”(嚴(yán)格來(lái)說(shuō)是負(fù)梯度)的Boosting集成手段。
  • 適用于回歸、二分類(lèi)和多分類(lèi)任務(wù)。
  • 預(yù)測(cè)精度比RF高。
  • 對(duì)異常值的魯棒性強(qiáng)(采用了Huber損失和分位數(shù)損失)。

缺點(diǎn):

  • 串行方式的模型訓(xùn)練,難并行,造成計(jì)算開(kāi)銷(xiāo)。
  • 不適合高維稀疏離散特征。這是決策樹(shù)的痛點(diǎn),比如動(dòng)物類(lèi)別采用one-hot編碼后,會(huì)產(chǎn)生是否為狗,是否為貓一系列特征,而若這一系列特征中大量樣本為狗,其它動(dòng)物很少,那么樹(shù)在劃分屬性時(shí),很容易就劃分為“是否為狗”,從而產(chǎn)生過(guò)擬合,它不像LR等線(xiàn)性模型f(w,x)的正則化權(quán)重是對(duì)樣本懲罰(可以實(shí)現(xiàn)對(duì)狗樣本給與更大的懲罰項(xiàng)),而樹(shù)的懲罰項(xiàng)往往是樹(shù)結(jié)構(gòu)相關(guān)的,因此樣本層面的懲罰較小,使得在高維稀疏特征時(shí),GBDT表現(xiàn)不好。

3. 與RF的對(duì)比

[4] 總結(jié)的很好,我就不重復(fù)造輪子了:

圖片

圖3:GBDT與RF的區(qū)別 [4]

四、代碼參考

scikit-learn已提供封裝好的庫(kù)直接調(diào)用就好了,受限于篇幅,這里不詳細(xì)展開(kāi),詳見(jiàn)官方文檔 [6]。

from sklearn.datasets import make_regression
from sklearn.ensemble import GradientBoostingRegressor
from sklearn.model_selection import train_test_split


X, y = make_regression(random_state=0)
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
reg = GradientBoostingRegressor(random_state=0)
reg.fit(X_train, y_train)
reg.predict(X_test[1:2])
reg.score(X_test, y_test)
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 決策樹(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    96

    瀏覽量

    13732
  • 累加器
    +關(guān)注

    關(guān)注

    0

    文章

    50

    瀏覽量

    9600
  • GBDT
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    3996
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    關(guān)于決策樹(shù),這些知識(shí)點(diǎn)不可錯(cuò)過(guò)

    的一種算法。它既是分類(lèi)算法,也是回歸算法,還可以用在隨機(jī)森林中。咱們學(xué)計(jì)算機(jī)的同學(xué)經(jīng)常敲if 、else if、else其實(shí)就已經(jīng)在用到決策樹(shù)的思想了。
    發(fā)表于 05-23 09:38

    基于決策樹(shù)CART算法識(shí)別印第安人糖尿病患者

    利用決策樹(shù)CART算法識(shí)別印第安人糖尿病患者
    發(fā)表于 05-06 12:16

    分類(lèi)回歸方法之決策樹(shù)

    統(tǒng)計(jì)學(xué)習(xí)方法決策樹(shù)
    發(fā)表于 11-05 13:40

    決策樹(shù)的生成資料

    在本文中,我們將討論一種監(jiān)督式學(xué)習(xí)算法。最新一代意法半導(dǎo)體 MEMS 傳感器內(nèi)置一個(gè)基于決策樹(shù)分類(lèi)器的機(jī)器學(xué)習(xí)核心(MLC)。這些產(chǎn)品很容易通過(guò)后綴中的 X 來(lái)識(shí)別(例如,LSM6DSOX)。這種
    發(fā)表于 09-08 06:50

    一個(gè)基于粗集的決策樹(shù)規(guī)則提取算法

    一個(gè)基于粗集的決策樹(shù)規(guī)則提取算法:摘要:決策樹(shù)是數(shù)據(jù)挖掘任務(wù)中分類(lèi)的常用方法。在構(gòu)造決策樹(shù)的過(guò)程中,分離屬性的選擇標(biāo)準(zhǔn)直接影響到分類(lèi)的效果,
    發(fā)表于 10-10 15:13 ?12次下載

    改進(jìn)決策樹(shù)算法的應(yīng)用研究

    該方法利用決策樹(shù)算法構(gòu)造決策樹(shù),通過(guò)對(duì)分類(lèi)結(jié)果中主客觀屬性進(jìn)行標(biāo)記并邏輯運(yùn)算,最終得到較客觀的決策信息,并進(jìn)行實(shí)驗(yàn)驗(yàn)證。
    發(fā)表于 02-07 11:38 ?27次下載
    改進(jìn)<b class='flag-5'>決策樹(shù)</b>算法的應(yīng)用研究

    決策樹(shù)的介紹

    關(guān)于決策樹(shù)的介紹,是一些很基礎(chǔ)的介紹,不過(guò)是英文介紹。
    發(fā)表于 09-18 14:55 ?0次下載

    數(shù)據(jù)挖掘算法:決策樹(shù)算法如何學(xué)習(xí)及分裂剪枝

    決策樹(shù)(decision tree)算法基于特征屬性進(jìn)行分類(lèi),其主要的優(yōu)點(diǎn):模型具有可讀性,計(jì)算量小,分類(lèi)速度快。決策樹(shù)算法包括了由Quin
    的頭像 發(fā)表于 07-21 10:13 ?5967次閱讀
    數(shù)據(jù)挖掘算法:<b class='flag-5'>決策樹(shù)</b>算法如何學(xué)習(xí)及分裂剪枝

    決策樹(shù)的原理和決策樹(shù)構(gòu)建的準(zhǔn)備工作,機(jī)器學(xué)習(xí)決策樹(shù)的原理

    希望通過(guò)所給的訓(xùn)練數(shù)據(jù)學(xué)習(xí)一個(gè)貸款申請(qǐng)的決策樹(shù),用于對(duì)未來(lái)的貸款申請(qǐng)進(jìn)行分類(lèi),即當(dāng)新的客戶(hù)提出貸款申請(qǐng)時(shí),根據(jù)申請(qǐng)人的特征利用決策樹(shù)決定是否批準(zhǔn)貸款申請(qǐng)。
    的頭像 發(fā)表于 10-08 14:26 ?6299次閱讀

    決策樹(shù)的構(gòu)成要素及算法

    決策樹(shù)是一種解決分類(lèi)問(wèn)題的算法,決策樹(shù)算法采用樹(shù)形結(jié)構(gòu),使用層層推理來(lái)實(shí)現(xiàn)最終的分類(lèi)。
    發(fā)表于 08-27 09:52 ?4493次閱讀

    使用不純度拆分決策樹(shù)的步驟

    決策樹(shù)是機(jī)器學(xué)習(xí)中使用的最流行和功能最強(qiáng)大的分類(lèi)算法之一。顧名思義,決策樹(shù)用于根據(jù)給定的數(shù)據(jù)集做出決策。也就是說(shuō),它有助于選擇適當(dāng)?shù)奶卣饕詫?b class='flag-5'>樹(shù)
    發(fā)表于 01-13 09:37 ?1579次閱讀
    使用<b class='flag-5'>基</b><b class='flag-5'>尼</b>不純度拆分<b class='flag-5'>決策樹(shù)</b>的步驟

    決策樹(shù)的基本概念/學(xué)習(xí)步驟/算法/優(yōu)缺點(diǎn)

    本文將介紹決策樹(shù)的基本概念、決策樹(shù)學(xué)習(xí)的3個(gè)步驟、3種典型的決策樹(shù)算法、決策樹(shù)的10個(gè)優(yōu)缺點(diǎn)。
    發(fā)表于 01-27 10:03 ?2818次閱讀
    <b class='flag-5'>決策樹(shù)</b>的基本概念/學(xué)習(xí)步驟/算法/優(yōu)缺點(diǎn)

    什么是決策樹(shù)模型,決策樹(shù)模型的繪制方法

    決策樹(shù)是一種解決分類(lèi)問(wèn)題的算法,本文將介紹什么是決策樹(shù)模型,常見(jiàn)的用途,以及如何使用“億圖圖示”軟件繪制決策樹(shù)模型。
    發(fā)表于 02-18 10:12 ?1.3w次閱讀
    什么是<b class='flag-5'>決策樹(shù)</b>模型,<b class='flag-5'>決策樹(shù)</b>模型的繪制方法

    決策樹(shù)的結(jié)構(gòu)/優(yōu)缺點(diǎn)/生成

    決策樹(shù)(DecisionTree)是機(jī)器學(xué)習(xí)中一種常見(jiàn)的算法,它的思想非常樸素,就像我們平時(shí)利用選擇做決策的過(guò)程。決策樹(shù)是一種基本的分類(lèi)回歸
    發(fā)表于 03-04 10:11 ?8473次閱讀

    大數(shù)據(jù)—決策樹(shù)

    大數(shù)據(jù)————決策樹(shù)(decision tree) 決策樹(shù)(decision tree):是一種基本的分類(lèi)回歸方法,主要討論分類(lèi)
    的頭像 發(fā)表于 10-20 10:01 ?1378次閱讀
    主站蜘蛛池模板: 国产午夜视频在线观看 | 岛国毛片 | 一区在线免费观看 | 国内久久精品视频 | 最近2018中文字幕免费看在线 | 久久综合九色 | 777奇米四色米奇影院在线播放 | 狠狠se| 人人揉揉香蕉大免费不卡 | 成人免费视频一区 | 激情欧美一区二区三区中文字幕 | 色香蕉在线视频 | 色综合天天色 | 国产一区二区影院 | 精品欧美一区二区三区 | 亚洲卡5卡6卡7国色天香 | 免费欧美黄色网址 | 天天翘夜夜洗澡天天做 | 国内久久久久高清影视 | 色视频亚洲 | 国产精品漂亮美女在线观看 | 天天干天天射天天爽 | 91夜夜人人揉人人捏人人添 | 久久亚洲精品玖玖玖玖 | 久久艹影院 | 亚洲人成电影在线观看网 | 色婷婷欧美 | 妇少香港三日本三级视频 | 天天草夜夜草 | 久久五月天婷婷 | 国产精品夜色一区二区三区 | 一级一片免费视频播放 | 成人永久免费视频 | 久久香蕉综合精品国产 | 三级毛片在线 | 午夜小视频在线观看 | 欧美猛交xxx呻吟 | 在线观看免费视频资源 | 1区2区3区4区 | 男女午夜免费视频 | 天天操综合网 |