在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

隨機(jī)森林算法及其實(shí)現(xiàn)

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 2023-05-15 09:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 什么是隨機(jī)森林?

作為新興起的、高度靈活的一種機(jī)器學(xué)習(xí)算法,隨機(jī)森林(Random Forest,簡(jiǎn)稱(chēng)RF)擁有廣泛的應(yīng)用前景,從市場(chǎng)營(yíng)銷(xiāo)到醫(yī)療保健保險(xiǎn),既可以用來(lái)做市場(chǎng)營(yíng)銷(xiāo)模擬的建模,統(tǒng)計(jì)客戶來(lái)源,保留和流失,也可用來(lái)預(yù)測(cè)疾病的風(fēng)險(xiǎn)和病患者的易感性。最初,我是在參加校外競(jìng)賽時(shí)接觸到隨機(jī)森林算法的。最近幾年的國(guó)內(nèi)外大賽,包括2013年百度校園電影推薦系統(tǒng)大賽、2014年阿里巴巴天池大數(shù)據(jù)競(jìng)賽以及Kaggle數(shù)據(jù)科學(xué)競(jìng)賽,參賽者對(duì)隨機(jī)森林的使用占有相當(dāng)高的比例。此外,據(jù)我的個(gè)人了解來(lái)看,一大部分成功進(jìn)入答辯的隊(duì)伍也都選擇了Random Forest 或者 GBDT 算法。所以可以看出,Random Forest在準(zhǔn)確率方面還是相當(dāng)有優(yōu)勢(shì)的。

那說(shuō)了這么多,那隨機(jī)森林到底是怎樣的一種算法呢?

如果讀者接觸過(guò)決策樹(shù)(Decision Tree)的話,那么會(huì)很容易理解什么是隨機(jī)森林。隨機(jī)森林就是通過(guò)集成學(xué)習(xí)的思想將多棵樹(shù)集成的一種算法,它的基本單元是決策樹(shù),而它的本質(zhì)屬于機(jī)器學(xué)習(xí)的一大分支——集成學(xué)習(xí)(Ensemble Learning)方法。隨機(jī)森林的名稱(chēng)中有兩個(gè)關(guān)鍵詞,一個(gè)是“隨機(jī)”,一個(gè)就是“森林”?!吧帧蔽覀兒芎美斫?,一棵叫做樹(shù),那么成百上千棵就可以叫做森林了,這樣的比喻還是很貼切的,其實(shí)這也是隨機(jī)森林的主要思想--集成思想的體現(xiàn)?!半S機(jī)”的含義我們會(huì)在下邊部分講到。

其實(shí)從直觀角度來(lái)解釋?zhuān)靠脹Q策樹(shù)都是一個(gè)分類(lèi)器(假設(shè)現(xiàn)在針對(duì)的是分類(lèi)問(wèn)題),那么對(duì)于一個(gè)輸入樣本,N棵樹(shù)會(huì)有N個(gè)分類(lèi)結(jié)果。而隨機(jī)森林集成了所有的分類(lèi)投票結(jié)果,將投票次數(shù)最多的類(lèi)別指定為最終的輸出,這就是一種最簡(jiǎn)單的 Bagging 思想。

回到頂部

2 隨機(jī)森林的特點(diǎn)

我們前邊提到,隨機(jī)森林是一種很靈活實(shí)用的方法,它有如下幾個(gè)特點(diǎn):

  • 在當(dāng)前所有算法中,具有極好的準(zhǔn)確率/It is unexcelled in accuracy among current algorithms;

  • 能夠有效地運(yùn)行在大數(shù)據(jù)集上/It runs efficiently on large data bases;

  • 能夠處理具有高維特征的輸入樣本,而且不需要降維/It can handle thousands of input variables without variable deletion;

  • 能夠評(píng)估各個(gè)特征在分類(lèi)問(wèn)題上的重要性/It gives estimates of what variables are important in the classification;

  • 在生成過(guò)程中,能夠獲取到內(nèi)部生成誤差的一種無(wú)偏估計(jì)/It generates an internal unbiased estimate of the generalization error as the forest building progresses;

  • 對(duì)于缺省值問(wèn)題也能夠獲得很好得結(jié)果/It has an effective method for estimating missing data and maintains accuracy when a large proportion of the data are missing

  • ... ...

實(shí)際上,隨機(jī)森林的特點(diǎn)不只有這六點(diǎn),它就相當(dāng)于機(jī)器學(xué)習(xí)領(lǐng)域的Leatherman(多面手),你幾乎可以把任何東西扔進(jìn)去,它基本上都是可供使用的。在估計(jì)推斷映射方面特別好用,以致都不需要像SVM那樣做很多參數(shù)的調(diào)試。具體的隨機(jī)森林介紹可以參見(jiàn)隨機(jī)森林主頁(yè):Random Forest。

回到頂部

3 隨機(jī)森林的相關(guān)基礎(chǔ)知識(shí)

隨機(jī)森林看起來(lái)是很好理解,但是要完全搞明白它的工作原理,需要很多機(jī)器學(xué)習(xí)方面相關(guān)的基礎(chǔ)知識(shí)。在本文中,我們簡(jiǎn)單談一下,而不逐一進(jìn)行贅述,如果有同學(xué)不太了解相關(guān)的知識(shí),可以參閱其他博友的一些相關(guān)博文或者文獻(xiàn)。

1)信息、熵以及信息增益的概念

這三個(gè)基本概念是決策樹(shù)的根本,是決策樹(shù)利用特征來(lái)分類(lèi)時(shí),確定特征選取順序的依據(jù)。理解了它們,決策樹(shù)你也就了解了大概。

引用香農(nóng)的話來(lái)說(shuō),信息是用來(lái)消除隨機(jī)不確定性的東西。當(dāng)然這句話雖然經(jīng)典,但是還是很難去搞明白這種東西到底是個(gè)什么樣,可能在不同的地方來(lái)說(shuō),指的東西又不一樣。對(duì)于機(jī)器學(xué)習(xí)中的決策樹(shù)而言,如果帶分類(lèi)的事物集合可以劃分為多個(gè)類(lèi)別當(dāng)中,則某個(gè)類(lèi)(xi)的信息可以定義如下:

b1a4812c-f2b5-11ed-90ce-dac502259ad0.png

I(x)用來(lái)表示隨機(jī)變量的信息,p(xi)指是當(dāng)xi發(fā)生時(shí)的概率。

熵是用來(lái)度量不確定性的,當(dāng)熵越大,X=xi的不確定性越大,反之越小。對(duì)于機(jī)器學(xué)習(xí)中的分類(lèi)問(wèn)題而言,熵越大即這個(gè)類(lèi)別的不確定性更大,反之越小。

信息增益在決策樹(shù)算法中是用來(lái)選擇特征的指標(biāo),信息增益越大,則這個(gè)特征的選擇性越好。

這方面的內(nèi)容不再細(xì)述,感興趣的同學(xué)可以看信息&熵&信息增益這篇博文。

2)決策樹(shù)

決策樹(shù)是一種樹(shù)形結(jié)構(gòu),其中每個(gè)內(nèi)部節(jié)點(diǎn)表示一個(gè)屬性上的測(cè)試,每個(gè)分支代表一個(gè)測(cè)試輸出,每個(gè)葉節(jié)點(diǎn)代表一種類(lèi)別。常見(jiàn)的決策樹(shù)算法有C4.5、ID3和CART。

3)集成學(xué)習(xí)

集成學(xué)習(xí)通過(guò)建立幾個(gè)模型組合的來(lái)解決單一預(yù)測(cè)問(wèn)題。它的工作原理是生成多個(gè)分類(lèi)器/模型,各自獨(dú)立地學(xué)習(xí)和作出預(yù)測(cè)。這些預(yù)測(cè)最后結(jié)合成單預(yù)測(cè),因此優(yōu)于任何一個(gè)單分類(lèi)的做出預(yù)測(cè)。

隨機(jī)森林是集成學(xué)習(xí)的一個(gè)子類(lèi),它依靠于決策樹(shù)的投票選擇來(lái)決定最后的分類(lèi)結(jié)果。你可以在這找到用python實(shí)現(xiàn)集成學(xué)習(xí)的文檔:Scikit 學(xué)習(xí)文檔。

回到頂部

4 隨機(jī)森林的生成

前面提到,隨機(jī)森林中有許多的分類(lèi)樹(shù)。我們要將一個(gè)輸入樣本進(jìn)行分類(lèi),我們需要將輸入樣本輸入到每棵樹(shù)中進(jìn)行分類(lèi)。打個(gè)形象的比喻:森林中召開(kāi)會(huì)議,討論某個(gè)動(dòng)物到底是老鼠還是松鼠,每棵樹(shù)都要獨(dú)立地發(fā)表自己對(duì)這個(gè)問(wèn)題的看法,也就是每棵樹(shù)都要投票。該動(dòng)物到底是老鼠還是松鼠,要依據(jù)投票情況來(lái)確定,獲得票數(shù)最多的類(lèi)別就是森林的分類(lèi)結(jié)果。森林中的每棵樹(shù)都是獨(dú)立的,99.9%不相關(guān)的樹(shù)做出的預(yù)測(cè)結(jié)果涵蓋所有的情況,這些預(yù)測(cè)結(jié)果將會(huì)彼此抵消。少數(shù)優(yōu)秀的樹(shù)的預(yù)測(cè)結(jié)果將會(huì)超脫于蕓蕓“噪音”,做出一個(gè)好的預(yù)測(cè)。將若干個(gè)弱分類(lèi)器的分類(lèi)結(jié)果進(jìn)行投票選擇,從而組成一個(gè)強(qiáng)分類(lèi)器,這就是隨機(jī)森林bagging的思想(關(guān)于bagging的一個(gè)有必要提及的問(wèn)題:bagging的代價(jià)是不用單棵決策樹(shù)來(lái)做預(yù)測(cè),具體哪個(gè)變量起到重要作用變得未知,所以bagging改進(jìn)了預(yù)測(cè)準(zhǔn)確率但損失了解釋性。)。下圖可以形象地描述這個(gè)情況:

b1b92514-f2b5-11ed-90ce-dac502259ad0.png

有了樹(shù)我們就可以分類(lèi)了,但是森林中的每棵樹(shù)是怎么生成的呢?

每棵樹(shù)的按照如下規(guī)則生成:

1)如果訓(xùn)練集大小為N,對(duì)于每棵樹(shù)而言,隨機(jī)且有放回地從訓(xùn)練集中的抽取N個(gè)訓(xùn)練樣本(這種采樣方式稱(chēng)為bootstrap sample方法),作為該樹(shù)的訓(xùn)練集;

從這里我們可以知道:每棵樹(shù)的訓(xùn)練集都是不同的,而且里面包含重復(fù)的訓(xùn)練樣本(理解這點(diǎn)很重要)。

為什么要隨機(jī)抽樣訓(xùn)練集?(add @2016.05.28)

如果不進(jìn)行隨機(jī)抽樣,每棵樹(shù)的訓(xùn)練集都一樣,那么最終訓(xùn)練出的樹(shù)分類(lèi)結(jié)果也是完全一樣的,這樣的話完全沒(méi)有bagging的必要;

為什么要有放回地抽樣?(add @2016.05.28)

我理解的是這樣的:如果不是有放回的抽樣,那么每棵樹(shù)的訓(xùn)練樣本都是不同的,都是沒(méi)有交集的,這樣每棵樹(shù)都是"有偏的",都是絕對(duì)"片面的"(當(dāng)然這樣說(shuō)可能不對(duì)),也就是說(shuō)每棵樹(shù)訓(xùn)練出來(lái)都是有很大的差異的;而隨機(jī)森林最后分類(lèi)取決于多棵樹(shù)(弱分類(lèi)器)的投票表決,這種表決應(yīng)該是"求同",因此使用完全不同的訓(xùn)練集來(lái)訓(xùn)練每棵樹(shù)這樣對(duì)最終分類(lèi)結(jié)果是沒(méi)有幫助的,這樣無(wú)異于是"盲人摸象"。

2)如果每個(gè)樣本的特征維度為M,指定一個(gè)常數(shù)m<

3)每棵樹(shù)都盡最大程度的生長(zhǎng),并且沒(méi)有剪枝過(guò)程。

一開(kāi)始我們提到的隨機(jī)森林中的“隨機(jī)”就是指的這里的兩個(gè)隨機(jī)性。兩個(gè)隨機(jī)性的引入對(duì)隨機(jī)森林的分類(lèi)性能至關(guān)重要。由于它們的引入,使得隨機(jī)森林不容易陷入過(guò)擬合,并且具有很好得抗噪能力(比如:對(duì)缺省值不敏感)。

隨機(jī)森林分類(lèi)效果(錯(cuò)誤率)與兩個(gè)因素有關(guān):

  • 森林中任意兩棵樹(shù)的相關(guān)性:相關(guān)性越大,錯(cuò)誤率越大;

  • 森林中每棵樹(shù)的分類(lèi)能力:每棵樹(shù)的分類(lèi)能力越強(qiáng),整個(gè)森林的錯(cuò)誤率越低。

減小特征選擇個(gè)數(shù)m,樹(shù)的相關(guān)性和分類(lèi)能力也會(huì)相應(yīng)的降低;增大m,兩者也會(huì)隨之增大。所以關(guān)鍵問(wèn)題是如何選擇最優(yōu)的m(或者是范圍),這也是隨機(jī)森林唯一的一個(gè)參數(shù)。

回到頂部

5 袋外錯(cuò)誤率(oob error)

上面我們提到,構(gòu)建隨機(jī)森林的關(guān)鍵問(wèn)題就是如何選擇最優(yōu)的m,要解決這個(gè)問(wèn)題主要依據(jù)計(jì)算袋外錯(cuò)誤率oob error(out-of-bag error)。

隨機(jī)森林有一個(gè)重要的優(yōu)點(diǎn)就是,沒(méi)有必要對(duì)它進(jìn)行交叉驗(yàn)證或者用一個(gè)獨(dú)立的測(cè)試集來(lái)獲得誤差的一個(gè)無(wú)偏估計(jì)。它可以在內(nèi)部進(jìn)行評(píng)估,也就是說(shuō)在生成的過(guò)程中就可以對(duì)誤差建立一個(gè)無(wú)偏估計(jì)。

我們知道,在構(gòu)建每棵樹(shù)時(shí),我們對(duì)訓(xùn)練集使用了不同的bootstrap sample(隨機(jī)且有放回地抽?。?。所以對(duì)于每棵樹(shù)而言(假設(shè)對(duì)于第k棵樹(shù)),大約有1/3的訓(xùn)練實(shí)例沒(méi)有參與第k棵樹(shù)的生成,它們稱(chēng)為第k棵樹(shù)的oob樣本。

而這樣的采樣特點(diǎn)就允許我們進(jìn)行oob估計(jì),它的計(jì)算方式如下:

(note:以樣本為單位)

1)對(duì)每個(gè)樣本,計(jì)算它作為oob樣本的樹(shù)對(duì)它的分類(lèi)情況(約1/3的樹(shù));

2)然后以簡(jiǎn)單多數(shù)投票作為該樣本的分類(lèi)結(jié)果;

3)最后用誤分個(gè)數(shù)占樣本總數(shù)的比率作為隨機(jī)森林的oob誤分率。

(文獻(xiàn)原文:Put each case left out in the construction of the kth tree down the kth tree to get a classification. In this way, a test set classification is obtained for each case in about one-third of the trees. At the end of the run, take j to be the class that got most of the votes every time case n was oob. The proportion of times that j is not equal to the true class of n averaged over all cases is the oob error estimate. This has proven to be unbiased in many tests.)

oob誤分率是隨機(jī)森林泛化誤差的一個(gè)無(wú)偏估計(jì),它的結(jié)果近似于需要大量計(jì)算的k折交叉驗(yàn)證。

回到頂部

6 隨機(jī)森林工作原理解釋的一個(gè)簡(jiǎn)單例子

描述:根據(jù)已有的訓(xùn)練集已經(jīng)生成了對(duì)應(yīng)的隨機(jī)森林,隨機(jī)森林如何利用某一個(gè)人的年齡(Age)、性別(Gender)、教育情況(Highest Educational Qualification)、工作領(lǐng)域(Industry)以及住宅地(Residence)共5個(gè)字段來(lái)預(yù)測(cè)他的收入層次。

收入層次 :

Band 1 : Below $40,000

Band 2: $40,000 –150,000

Band 3: More than $150,000

隨機(jī)森林中每一棵樹(shù)都可以看做是一棵CART(分類(lèi)回歸樹(shù)),這里假設(shè)森林中有5棵CART樹(shù),總特征個(gè)數(shù)N=5,我們?nèi)=1(這里假設(shè)每個(gè)CART樹(shù)對(duì)應(yīng)一個(gè)不同的特征)。

CART 1 : Variable Age

b1d9f2ee-f2b5-11ed-90ce-dac502259ad0.png

CART 2 : VariableGender

b1f52708-f2b5-11ed-90ce-dac502259ad0.png

CART 3 : Variable Education

b209d036-f2b5-11ed-90ce-dac502259ad0.png

CART 4 : VariableResidence

b21a867e-f2b5-11ed-90ce-dac502259ad0.png

CART 5 : VariableIndustry

b22ea8ca-f2b5-11ed-90ce-dac502259ad0.png

我們要預(yù)測(cè)的某個(gè)人的信息如下:

1. Age : 35 years ; 2. Gender : Male ; 3. Highest Educational Qualification : Diploma holder; 4. Industry : Manufacturing; 5. Residence : Metro.

根據(jù)這五棵CART樹(shù)的分類(lèi)結(jié)果,我們可以針對(duì)這個(gè)人的信息建立收入層次的分布情況:

b2444ca2-f2b5-11ed-90ce-dac502259ad0.png

最后,我們得出結(jié)論,這個(gè)人的收入層次70%是一等,大約24%為二等,6%為三等,所以最終認(rèn)定該人屬于一等收入層次(小于$40,000)。

回到頂部

7 隨機(jī)森林的Python實(shí)現(xiàn)

利用Python的兩個(gè)模塊,分別為pandas和scikit-learn來(lái)實(shí)現(xiàn)隨機(jī)森林。

b257eea6-f2b5-11ed-90ce-dac502259ad0.jpg


					
  1. from sklearn.datasets import load_iris

  2. from sklearn.ensemble import RandomForestClassifier

  3. import pandas as pd

  4. import numpy as np

  5. iris = load_iris()

  6. df = pd.DataFrame(iris.data, columns=iris.feature_names)

  7. df['is_train'] = np.random.uniform(0, 1, len(df)) <= .75

  8. df['species'] = pd.Factor(iris.target, iris.target_names)

  9. df.head()

  10. train, test = df[df['is_train']==True], df[df['is_train']==False]

  11. features = df.columns[:4]

  12. clf = RandomForestClassifier(n_jobs=2)

  13. y, _ = pd.factorize(train['species'])

  14. clf.fit(train[features], y)

  15. preds = iris.target_names[clf.predict(test[features])]

  16. pd.crosstab(test['species'], preds, rownames=['actual'], colnames=['preds'])

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg

分類(lèi)結(jié)果:

b27b90b8-f2b5-11ed-90ce-dac502259ad0.png

與其他機(jī)器學(xué)習(xí)分類(lèi)算法進(jìn)行對(duì)比:

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg


					
  1. import numpy as np

  2. import matplotlib.pyplot as plt

  3. from matplotlib.colors import ListedColormap

  4. from sklearn.cross_validation import train_test_split

  5. from sklearn.preprocessing import StandardScaler

  6. from sklearn.datasets import make_moons, make_circles, make_classification

  7. from sklearn.neighbors import KNeighborsClassifier

  8. from sklearn.svm import SVC

  9. from sklearn.tree import DecisionTreeClassifier

  10. from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier

  11. from sklearn.naive_bayes import GaussianNB

  12. from sklearn.lda import LDA

  13. from sklearn.qda import QDA

  14. h = .02 # step size in the mesh

  15. names = ["Nearest Neighbors", "Linear SVM", "RBF SVM", "Decision Tree",

  16. "Random Forest", "AdaBoost", "Naive Bayes", "LDA", "QDA"]

  17. classifiers = [

  18. KNeighborsClassifier(3),

  19. SVC(kernel="linear", C=0.025),

  20. SVC(gamma=2, C=1),

  21. DecisionTreeClassifier(max_depth=5),

  22. RandomForestClassifier(max_depth=5, n_estimators=10, max_features=1),

  23. AdaBoostClassifier(),

  24. GaussianNB(),

  25. LDA(),

  26. QDA()]

  27. X, y = make_classification(n_features=2, n_redundant=0, n_informative=2,

  28. random_state=1, n_clusters_per_class=1)

  29. rng = np.random.RandomState(2)

  30. X += 2 * rng.uniform(size=X.shape)

  31. linearly_separable = (X, y)

  32. datasets = [make_moons(noise=0.3, random_state=0),

  33. make_circles(noise=0.2, factor=0.5, random_state=1),

  34. linearly_separable

  35. ]

  36. figure = plt.figure(figsize=(27, 9))

  37. i = 1

  38. # iterate over datasets

  39. for ds in datasets:

  40. # preprocess dataset, split into training and test part

  41. X, y = ds

  42. X = StandardScaler().fit_transform(X)

  43. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4)

  44. x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5

  45. y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5

  46. xx, yy = np.meshgrid(np.arange(x_min, x_max, h),

  47. np.arange(y_min, y_max, h))

  48. # just plot the dataset first

  49. cm = plt.cm.RdBu

  50. cm_bright = ListedColormap(['#FF0000', '#0000FF'])

  51. ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

  52. # Plot the training points

  53. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

  54. # and testing points

  55. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright, alpha=0.6)

  56. ax.set_xlim(xx.min(), xx.max())

  57. ax.set_ylim(yy.min(), yy.max())

  58. ax.set_xticks(())

  59. ax.set_yticks(())

  60. i += 1

  61. # iterate over classifiers

  62. for name, clf in zip(names, classifiers):

  63. ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

  64. clf.fit(X_train, y_train)

  65. score = clf.score(X_test, y_test)

  66. # Plot the decision boundary. For that, we will assign a color to each

  67. # point in the mesh [x_min, m_max]x[y_min, y_max].

  68. if hasattr(clf, "decision_function"):

  69. Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])

  70. else:

  71. Z = clf.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1]

  72. # Put the result into a color plot

  73. Z = Z.reshape(xx.shape)

  74. ax.contourf(xx, yy, Z, cmap=cm, alpha=.8)

  75. # Plot also the training points

  76. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

  77. # and testing points

  78. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,

  79. alpha=0.6)

  80. ax.set_xlim(xx.min(), xx.max())

  81. ax.set_ylim(yy.min(), yy.max())

  82. ax.set_xticks(())

  83. ax.set_yticks(())

  84. ax.set_title(name)

  85. ax.text(xx.max() - .3, yy.min() + .3, ('%.2f' % score).lstrip('0'),

  86. size=15, horizontalalignment='right')

  87. i += 1

  88. figure.subplots_adjust(left=.02, right=.98)

  89. plt.show()

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg

b2b4fc18-f2b5-11ed-90ce-dac502259ad0.png

這里隨機(jī)生成了三個(gè)樣本集,分割面近似為月形、圓形和線形的。我們可以重點(diǎn)對(duì)比一下決策樹(shù)和隨機(jī)森林對(duì)樣本空間的分割:

1)從準(zhǔn)確率上可以看出,隨機(jī)森林在這三個(gè)測(cè)試集上都要優(yōu)于單棵決策樹(shù),90%>85%,82%>80%,95%=95%;

2)從特征空間上直觀地可以看出,隨機(jī)森林比決策樹(shù)擁有更強(qiáng)的分割能力(非線性擬合能力)。

更多有關(guān)隨機(jī)森林的代碼:

1)Fortran版本

2)OpenCV版本

3)Matlab版本

4)R版本

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4708

    瀏覽量

    95269
  • 分類(lèi)器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13442
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86628

原文標(biāo)題:隨機(jī)森林算法及其實(shí)現(xiàn)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)算法隨機(jī)森林算法詳解及工作原理圖解

    隨機(jī)森林是一種靈活且易于使用的機(jī)器學(xué)習(xí)算法,即便沒(méi)有超參數(shù)調(diào)優(yōu),也可以在大多數(shù)情況下得到很好的結(jié)果。它也是最常用的算法之一,因?yàn)樗芎?jiǎn)易,既可用于分類(lèi)也能用于回歸任務(wù)。 在這篇文章中,
    的頭像 發(fā)表于 03-14 16:10 ?32.1w次閱讀
    機(jī)器學(xué)習(xí)<b class='flag-5'>算法</b>之<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>詳解及工作原理圖解

    機(jī)器學(xué)習(xí)隨機(jī)森林相關(guān)知識(shí)

    機(jī)器學(xué)習(xí)之隨機(jī)森林(三)
    發(fā)表于 04-02 10:06

    隨機(jī)森林的相關(guān)知識(shí)

    機(jī)器學(xué)習(xí)之隨機(jī)森林(一)
    發(fā)表于 08-27 07:30

    ITU-TG.729算法及其實(shí)時(shí)實(shí)現(xiàn)

    ITU-TG.729算法及其實(shí)時(shí)實(shí)現(xiàn)  G.729編解碼算法,實(shí)時(shí)實(shí)現(xiàn)的G.729系統(tǒng)的軟件設(shè)計(jì)和硬件設(shè)計(jì)。在ADSP-2181
    發(fā)表于 12-08 14:55 ?1262次閱讀
    ITU-TG.729<b class='flag-5'>算法</b><b class='flag-5'>及其實(shí)</b>時(shí)<b class='flag-5'>實(shí)現(xiàn)</b>

    隨機(jī)森林的跌倒檢測(cè)算法

    針對(duì)現(xiàn)有跌倒檢測(cè)算法由于缺乏真實(shí)老人跌倒樣本以及使用年輕人仿真跌倒樣本規(guī)模較小導(dǎo)致的過(guò)擬合和適應(yīng)性不足等問(wèn)題,提出了基于隨機(jī)森林的跌倒檢測(cè)算法。該
    發(fā)表于 12-29 14:50 ?2次下載

    面向隨機(jī)森林的差分隱私保護(hù)算法

    提出一種基于隨機(jī)森林的差分隱私保護(hù)算法DiffPRFs,在每一棵決策樹(shù)的構(gòu)建過(guò)程中采用指數(shù)機(jī)制選擇分裂點(diǎn)和分裂屬性,并根據(jù)拉普拉斯機(jī)制添加噪聲。在整個(gè)算法過(guò)程中滿足差分隱私保護(hù)需求,相
    發(fā)表于 02-08 17:10 ?3次下載

    一種基于數(shù)據(jù)集成的隨機(jī)森林算法

    用于銷(xiāo)售預(yù)測(cè)的歷史數(shù)據(jù)存在稀疏性與波動(dòng)性等特點(diǎn),當(dāng)預(yù)測(cè)周期較長(zhǎng)時(shí),傳統(tǒng)統(tǒng)計(jì)學(xué)或者機(jī)器學(xué)習(xí)領(lǐng)域預(yù)測(cè)算法的預(yù)測(cè)效果較差。為此,利用隨機(jī)森林的集成思想與訓(xùn)練數(shù)據(jù)集的隨機(jī)分割重組,提出一種基于
    發(fā)表于 03-16 11:37 ?12次下載
    一種基于數(shù)據(jù)集成的<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>

    基于隨機(jī)森林與轉(zhuǎn)換算法實(shí)現(xiàn)海洋數(shù)據(jù)的協(xié)同轉(zhuǎn)換

    轉(zhuǎn)換接口,提出基于隨機(jī)森林的數(shù)據(jù)分類(lèi)與轉(zhuǎn)換算法實(shí)現(xiàn)海洋數(shù)據(jù)的協(xié)同轉(zhuǎn)換,并通過(guò)加入數(shù)據(jù)預(yù)處理過(guò)程降低時(shí)間復(fù)雜度。在此基礎(chǔ)上,設(shè)計(jì)改進(jìn)的雞群優(yōu)化算法
    發(fā)表于 03-31 14:41 ?1次下載
    基于<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b>與轉(zhuǎn)換<b class='flag-5'>算法</b><b class='flag-5'>實(shí)現(xiàn)</b>海洋數(shù)據(jù)的協(xié)同轉(zhuǎn)換

    基于k近鄰的完全隨機(jī)森林算法KCRForest

    針對(duì)有新類(lèi)的動(dòng)態(tài)數(shù)據(jù)流分類(lèi)算法檢測(cè)新類(lèi)性能不高的問(wèn)題,提出一種基于k近鄰的完全隨機(jī)森林算法( Kcrforest)。該算法利用動(dòng)態(tài)數(shù)據(jù)流中已
    發(fā)表于 04-02 10:01 ?18次下載
    基于k近鄰的完全<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>KCRForest

    基于遺傳算法隨機(jī)森林的XGBoost改進(jìn)方法

    回歸預(yù)測(cè)是機(jī)器學(xué)習(xí)中重要的研究方向之一,有著廣闊的應(yīng)用領(lǐng)域。為了進(jìn)一步提升回歸預(yù)測(cè)的精度,提出了基于遺傳算法隨機(jī)森林的 Gboost改進(jìn)方法( GA Xgboost_RF)。首先利用遺傳算法
    發(fā)表于 04-26 15:44 ?10次下載
    基于遺傳<b class='flag-5'>算法</b>和<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b>的XGBoost改進(jìn)方法

    面向差分?jǐn)?shù)據(jù)挖掘隱私保護(hù)的隨機(jī)森林算法

    數(shù)據(jù)挖掘中的隱私保護(hù)問(wèn)題是目前信息安全領(lǐng)域的研究熱點(diǎn)之一。針對(duì)隱私保護(hù)要求下的分類(lèi)問(wèn)題,提出一種面向差分隱私保護(hù)的隨機(jī)森林算法 REDPP-Gini。將隨機(jī)
    發(fā)表于 05-12 14:14 ?1次下載

    隨機(jī)森林的概念、工作原理及用例

    隨機(jī)森林是一種監(jiān)督式算法,使用由眾多決策樹(shù)組成的一種集成學(xué)習(xí)方法,輸出是對(duì)問(wèn)題最佳答案的共識(shí)。隨機(jī)森林可用于分類(lèi)或回歸。
    的頭像 發(fā)表于 08-05 10:00 ?7882次閱讀

    利用隨機(jī)森林進(jìn)行特征重要性評(píng)估

    隨機(jī)森林是以決策樹(shù)為基學(xué)習(xí)器的集成學(xué)習(xí)算法。隨機(jī)森林非常簡(jiǎn)單,易于實(shí)現(xiàn),計(jì)算開(kāi)銷(xiāo)也很小,更令人驚
    的頭像 發(fā)表于 10-10 17:14 ?2571次閱讀

    基于Python實(shí)現(xiàn)隨機(jī)森林算法

    機(jī)器學(xué)習(xí)算法是數(shù)據(jù)挖掘、數(shù)據(jù)能力分析和數(shù)學(xué)建模必不可少的一部分,而隨機(jī)森林算法和決策樹(shù)算法是其中較為常用的兩種
    的頭像 發(fā)表于 09-21 11:17 ?1680次閱讀
    基于Python<b class='flag-5'>實(shí)現(xiàn)</b><b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>

    什么是隨機(jī)森林隨機(jī)森林的工作原理

    隨機(jī)森林使用名為“bagging”的技術(shù),通過(guò)數(shù)據(jù)集和特征的隨機(jī)自助抽樣樣本并行構(gòu)建完整的決策樹(shù)。雖然決策樹(shù)基于一組固定的特征,而且經(jīng)常過(guò)擬合,但隨機(jī)性對(duì)
    發(fā)表于 03-18 14:27 ?5043次閱讀
    什么是<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b>?<b class='flag-5'>隨機(jī)</b><b class='flag-5'>森林</b>的工作原理
    主站蜘蛛池模板: 国产精品午夜久久久久久99热 | 欧美猛交喷潮在线播放 | 欧美成人aaa大片 | 圆胖肥女人性视频 | 五月婷婷六月婷婷 | 深夜一级毛片 | 欧美视频三区 | 亚洲精品在线视频 | 黄色午夜视频 | 色综合激情 | 久久精品国产夜色 | 日本三级最新中文字幕电影 | 狠狠色噜噜狠狠狠狠91 | 欧美激情 自拍 | 天天干天天干 | 日本高清免费aaaaa大片视频 | 久久人视频 | 国产精品欧美激情第一页 | 亚洲成人免费在线观看 | 国产精品久线观看视频 | 天天干天天草天天射 | 久久久噜噜噜www成人网 | 失禁h啪肉尿出来高h健身房 | 国产小视频在线免费 | 狼色网站 | 深夜一级毛片 | 在线观看886影院成人影院 | 中文字幕一区二区三 | 午夜免费观看福利片一区二区三区 | 美女很黄很黄是免费的·无遮挡网站 | 精品精品国产自在久久高清 | 免费人成网址在线观看国内 | 亚洲色图综合 | 久久久久久久综合 | 婷婷激情四月 | 特级毛片aaa免费版 特级毛片a级毛免费播放 | 婷婷欧美| 午夜视频播放 | 久久婷婷综合五月一区二区 | 日本一区免费观看 | 黄色国产在线观看 |