在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何用Python計算機器學習中特征的重要程度?

倩倩 ? 來源:deephub ? 2020-04-15 11:30 ? 次閱讀

特征重要性評分是一種為輸入特征評分的手段,其依據(jù)是輸入特征在預測目標變量過程中的有用程度。

特征重要性有許多類型和來源,盡管有許多比較常見,比如說統(tǒng)計相關(guān)性得分,線性模型的部分系數(shù),基于決策樹的特征重要性和經(jīng)過隨機排序得到重要性得分。

特征重要性在預測建模項目中起著重要作用,包括提供對數(shù)據(jù)、模型的見解,以及如何降維和選擇特征,從而提高預測模型的的效率和有效性。

在本教程中,我將會闡述用于python機器學習的特征重要性。完成本教程后,你將會知道:

特征重要性在預測建模中的作用

如何計算和查看來自線性模型和決策樹的特征重要性

如何計算和查看隨機排序重要性得分

現(xiàn)在讓我們開始吧。

教程概述

本教程分為五部分,分別是:

1.特征重要性

2.準備

2.1. 檢查Scikit-Learn版本

2.2. 創(chuàng)建測試數(shù)據(jù)集

3.特征重要性系數(shù)

3.1. 基于線性回歸系數(shù)的特征重要性

3.2. 基于Logistic回歸的特征重要性

4.基于決策樹的特征重要性

4.1. 基于CART的特征重要性

4.2. 基于隨機森林的特征重要性

4.3. 基于XGBoost的特征重要性

5.隨機排序特征重要性

5.1. 隨機排序(回歸)中的特征重要性

5.2. 隨機排序(分類)中的特征重要性

1.特征重要性

特征重要性是一種為預測模型的輸入特征評分的方法,該方法揭示了進行預測時每個特征的相對重要性。

可以為涉及預測數(shù)值的問題(稱為回歸)和涉及預測類別標簽的問題(稱為分類)計算特征重要性得分。

這些得分非常有用,可用于預測建模問題中的多種情況,例如:

更好地理解數(shù)據(jù)

更好地理解模型

減少輸入特征的數(shù)量

特征重要性得分可以幫助了解數(shù)據(jù)集

相對得分可以突出顯示哪些特征可能與目標最相關(guān),反之則突出哪些特征最不相關(guān)。這可以由一個領(lǐng)域?qū)<医忉專⑶铱梢杂米魇占嗟幕虿煌臄?shù)據(jù)的基礎(chǔ)。

特征重要性得分可以幫助了解模型

大多數(shù)重要性得分是通過數(shù)據(jù)集擬合出的預測模型計算的。查看重要性得分可以洞悉該特定模型,以及知道在進行預測時哪些特征最重要和哪些最不重要。這是一種模型解釋,適用于那些支持它的模型。

特征重要性可用于改進預測模型

可以使用的重要性得分來選擇要刪除的特征(最低得分)或要保留的特征(最高得分)。這是一種特征選擇,可以簡化正在建模的問題,加快建模過程(刪除特征稱為降維),在某些情況下,還可以改善模型的性能。

特征重要性得分可以被輸入到包裝器模型,如SelectFromModel或SelectKBest,以進行特征選擇。

有許多方法和模型可以計算特征重要性得分。

也許最簡單的方法是計算每個特征和目標變量之間的統(tǒng)計學相關(guān)系數(shù)。

在本教程中,我們將研究三種比較高級的特征重要性,即:

從模型系數(shù)得知的特征重要性。

決策樹中的特征重要性。

隨機排序檢驗中的特征重要性。

現(xiàn)在讓我們深入了解這三個!

2.準備

在深入學習之前,我們先確認我們的環(huán)境并準備一些測試數(shù)據(jù)集。

檢查Scikit-Learn版本

首先,確認你已安裝最新版本的scikit-learn庫。這非常重要,因為在本教程中,我們我們研究的一些模型需要最新版的庫。

您可以使用以下示例代碼來查看已安裝的庫的版本:

# check scikit-learn version

import sklearn

print(sklearn.__version__)

運行示例代碼將會打印出庫的版本。在撰寫本文時,大概是version 0.22。你需要使用此版本或更高版本的scikit-learn。

0.22.1

生成測試數(shù)據(jù)集

接下來,讓我們生成一些測試數(shù)據(jù)集,這些數(shù)據(jù)集可以作為基礎(chǔ)來證明和探索特征重要性得分。每個測試問題有五個重要特征和五不重要的特征,看看哪種方法可以根據(jù)其重要性找到或區(qū)分特征可能會比較有意思。

分類數(shù)據(jù)集

我們將使用make_classification()函數(shù)創(chuàng)建一個用于測試的二進制分類數(shù)據(jù)集。

數(shù)據(jù)集將包含1000個實例,且包含10個輸入特征,其中五個將會提供信息,其余五個是多余的。

為了確保每次運行代碼時都得到相同的實例,我們將使用假隨機數(shù)種子。下面列出了創(chuàng)建數(shù)據(jù)集的示例。

# test classification dataset

from sklearn.datasets import make_classification

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# summarize the dataset

print(X.shape, y.shape)

運行示例,創(chuàng)建數(shù)據(jù)集,并確保所需的樣本和特征數(shù)量。

(1000, 10) (1000,)

回歸數(shù)據(jù)集

我們將使用make_regression()函數(shù)創(chuàng)建一個用于測試的回歸數(shù)據(jù)集。

像分類數(shù)據(jù)集一樣,回歸數(shù)據(jù)集將包含1000個實例,且包含10個輸入特征,其中五個將會提供信息,其余五個是多余的。

# test regression dataset

from sklearn.datasets import make_regression

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# summarize the dataset

print(X.shape, y.shape)

運行示例,創(chuàng)建數(shù)據(jù)集,并確保所需的樣本和特征數(shù)量。

(1000, 10) (1000,)

接下來,我們仔細看一下特征重要性系數(shù)。

3.特征重要性系數(shù)

線性的機器學習能夠擬合出預測是輸入值的加權(quán)和的模型。

案例包括線性回歸,邏輯回歸,和正則化的擴展案例,如嶺回歸和彈性網(wǎng)絡(luò)。

所有這些算法都是找到一組要在加權(quán)求和中使用的系數(shù),以便進行預測。這些系數(shù)可以直接用作粗略類型的特征重要性得分。

我們來仔細研究一下分類和回歸中的特征重要性系數(shù)。我們將在數(shù)據(jù)集中擬合出一個模型以找到系數(shù),然后計算每個輸入特征的重要性得分,最終創(chuàng)建一個條形圖來了解特征的相對重要性。

3.1線性回歸特征重要性

我們可以在回歸數(shù)據(jù)集中擬合出一個LinearRegression模型,并檢索coeff_屬性,該屬性包含為每個輸入變量(特征)找到的系數(shù)。這些系數(shù)可以為粗略特征重要性評分提供依據(jù)。該模型假設(shè)輸入變量具有相同的比例或者在擬合模型之前已被按比例縮放。

下面列出了針對特征重要性的線性回歸系數(shù)的完整示例。

# linear regression feature importance

from sklearn.datasets import make_regression

from sklearn.linear_model import LinearRegression

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = LinearRegression()

# fit the model

model.fit(X, y)

# get importance

importance = model.coef_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

得分表明,模型找到了五個重要特征,并用零標記了剩下的特征,實際上,將他們從模型中去除了。

Feature: 0, Score: 0.00000

Feature: 1, Score: 12.44483

Feature: 2, Score: -0.00000

Feature: 3, Score: -0.00000

Feature: 4, Score: 93.32225

Feature: 5, Score: 86.50811

Feature: 6, Score: 26.74607

Feature: 7, Score: 3.28535

Feature: 8, Score: -0.00000

Feature: 9, Score: 0.00000

然后為特征重要性得分創(chuàng)建條形圖。

這種方法也可以用于嶺回歸和彈性網(wǎng)絡(luò)模型。

3.2 Logistic回歸特征重要性

就像線性回歸模型一樣,我們也可以在回歸數(shù)據(jù)集中擬合出一個LogisticRegression模型,并檢索coeff_屬性。這些系數(shù)可以為粗略特征重要性評分提供依據(jù)。該模型假設(shè)輸入變量具有相同的比例或者在擬合模型之前已被按比例縮放。

下面列出了針對特征重要性的Logistic回歸系數(shù)的完整示例。

# logistic regression for feature importance

from sklearn.datasets import make_classification

from sklearn.linear_model import LogisticRegression

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = LogisticRegression()

# fit the model

model.fit(X, y)

# get importance

importance = model.coef_[0]

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

回想一下,這是有關(guān)0和1的分類問題。請注意系數(shù)既可以為正,也可以為負。正數(shù)表示預測類別1的特征,而負數(shù)表示預測類別0的特征。

從這些結(jié)果,至少從我所知道的結(jié)果中,無法清晰的確定出重要和不重要特征。

Feature: 0, Score: 0.16320

Feature: 1, Score: -0.64301

Feature: 2, Score: 0.48497

Feature: 3, Score: -0.46190

Feature: 4, Score: 0.18432

Feature: 5, Score: -0.11978

Feature: 6, Score: -0.40602

Feature: 7, Score: 0.03772

Feature: 8, Score: -0.51785

Feature: 9, Score: 0.26540

然后為特征重要性得分創(chuàng)建條形圖。

現(xiàn)在我們已經(jīng)看到了將系數(shù)用作重要性得分的示例,接下來讓我們看向基于決策樹的重要性得分的常見示例

4.基于決策樹的特征重要性

決策樹算法,比如說classification and regression trees(CART)根據(jù)Gini系數(shù)或熵的減少來提供重要性得分。這個方法也可用于隨機森林和梯度提升算法。

OK.現(xiàn)在讓我們看看相應的運行示例。

4.1基于CART的特征重要性

對于在scikit-learn中實現(xiàn)的特征重要性,我們可以將CART算法用于DecisionTreeRegressor和DecisionTreeClassifier類

擬合后,模型提供feature_importances_屬性,可以訪問該屬性以檢索每個輸入特征的相對重要性得分。

讓我們看一個用于回歸和分類的示例。

基于CART(回歸)的特征重要性

下面列出了擬合DecisionTreeRegressor和計算特征重要性得分的完整示例。

# decision tree for feature importance on a regression problem

from sklearn.datasets import make_regression

from sklearn.tree import DecisionTreeRegressor

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = DecisionTreeRegressor()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的三個可能對預測很重要。

Feature: 0, Score: 0.00294

Feature: 1, Score: 0.00502

Feature: 2, Score: 0.00318

Feature: 3, Score: 0.00151

Feature: 4, Score: 0.51648

Feature: 5, Score: 0.43814

Feature: 6, Score: 0.02723

Feature: 7, Score: 0.00200

Feature: 8, Score: 0.00244

Feature: 9, Score: 0.00106

然后為特征重要性得分創(chuàng)建條形圖。

基于CART(分類)的特征重要性

下面列出了擬合DecisionTreeClassifier和計算特征重要性得分的完整示例

# decision tree for feature importance on a classification problem

from sklearn.datasets import make_classification

from sklearn.tree import DecisionTreeClassifier

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = DecisionTreeClassifier()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的四個可能對預測很重要。

Feature: 0, Score: 0.01486

Feature: 1, Score: 0.01029

Feature: 2, Score: 0.18347

Feature: 3, Score: 0.30295

Feature: 4, Score: 0.08124

Feature: 5, Score: 0.00600

Feature: 6, Score: 0.19646

Feature: 7, Score: 0.02908

Feature: 8, Score: 0.12820

Feature: 9, Score: 0.04745

然后為特征重要性得分創(chuàng)建條形圖。

4.2隨機森林中的特征重要性

對于在scikit-learn中實現(xiàn)的特征重要性,我們可以將Random Forest算法用于DecisionTreeRegressor和DecisionTreeClassifier類。

擬合后,模型提供feature_importances_屬性,可以訪問該屬性以檢索每個輸入特征的相對重要性得分。

這種方法也可以與裝袋和極端隨機樹(extraTree)算法一起使用。

讓我們看一個用于回歸和分類的示例。

隨機森林(回歸)中的特征重要性

下面列出了擬合RandomForestRegressor和計算特征重要性得分的完整示例

# random forest for feature importance on a regression problem

from sklearn.datasets import make_regression

from sklearn.ensemble import RandomForestRegressor

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = RandomForestRegressor()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.00280

Feature: 1, Score: 0.00545

Feature: 2, Score: 0.00294

Feature: 3, Score: 0.00289

Feature: 4, Score: 0.52992

Feature: 5, Score: 0.42046

Feature: 6, Score: 0.02663

Feature: 7, Score: 0.00304

Feature: 8, Score: 0.00304

Feature: 9, Score: 0.00283

然后為特征重要性得分創(chuàng)建條形圖。

隨機森林(分類)中的特征重要性

下面列出了擬合RandomForestClassifier和計算特征重要性得分的完整示例

# random forest for feature importance on a classification problem

from sklearn.datasets import make_classification

from sklearn.ensemble import RandomForestClassifier

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = RandomForestClassifier()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.06523

Feature: 1, Score: 0.10737

Feature: 2, Score: 0.15779

Feature: 3, Score: 0.20422

Feature: 4, Score: 0.08709

Feature: 5, Score: 0.09948

Feature: 6, Score: 0.10009

Feature: 7, Score: 0.04551

Feature: 8, Score: 0.08830

Feature: 9, Score: 0.04493

然后為特征重要性得分創(chuàng)建條形圖。

4.3基于XGBoost的特征重要性

XGBoost是一個庫,它提供了隨機梯度提升算法的高效實現(xiàn)。可以通過XGBRegressor和XGBClassifier類將此算法與scikit-learn一起使用。

擬合后,模型提供feature_importances_屬性,可以訪問該屬性以檢索每個輸入特征的相對重要性得分。

scikit-learn還通過GradientBoostingClassifier和GradientBoostingRegressor提供了該算法,并且可以使用相同的特征選擇方法

首先,安裝XGBoost庫,例如:

sudo pip install xgboost

然后,通過檢查版本號來確認該庫已正確安裝并且可以正常工作。

# check xgboost version

import xgboost

print(xgboost.__version__)

運行該示例,你應該看到以下版本號或者更高版本。

0.90

有關(guān)XGBoost庫的更多信息,請看:

XGBoost with Python

讓我們看一個用于回歸和分類問題的示例。

基于XGBoost(回歸)的特征重要性

下面列出了擬合XGBRegressor并且計算特征重要性得分的完整示例

# xgboost for feature importance on a regression problem

from sklearn.datasets import make_regression

from xgboost import XGBRegressor

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = XGBRegressor()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.00060

Feature: 1, Score: 0.01917

Feature: 2, Score: 0.00091

Feature: 3, Score: 0.00118

Feature: 4, Score: 0.49380

Feature: 5, Score: 0.42342

Feature: 6, Score: 0.05057

Feature: 7, Score: 0.00419

Feature: 8, Score: 0.00124

Feature: 9, Score: 0.00491

然后為特征重要性得分創(chuàng)建條形圖。

基于XGBoost(分類)的特征重要性

下面列出了擬合XGBClassifier并且計算特征重要性得分的完整示例

# xgboost for feature importance on a classification problem

from sklearn.datasets import make_classification

from xgboost import XGBClassifier

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = XGBClassifier()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中有七個可能對預測很重要。

Feature: 0, Score: 0.02464

Feature: 1, Score: 0.08153

Feature: 2, Score: 0.12516

Feature: 3, Score: 0.28400

Feature: 4, Score: 0.12694

Feature: 5, Score: 0.10752

Feature: 6, Score: 0.08624

Feature: 7, Score: 0.04820

Feature: 8, Score: 0.09357

Feature: 9, Score: 0.02220

然后為特征重要性得分創(chuàng)建條形圖。

5.基于隨機排序的特征重要性

隨機排序特征重要性(Permutation feature importance)可以計算相對重要性,與所使用的模型無關(guān)。

首先,在數(shù)據(jù)集中擬合出一個模型,比如說一個不支持本地特征重要性評分的模型。然后,盡管對數(shù)據(jù)集中的特征值進行了干擾,但仍可以使用該模型進行預測。對數(shù)據(jù)集中的每個特征進行此操作。然后,再將整個流程重新操作3、5、10或更多次。我們得到每個輸入特征的平均重要性得分(以及在重復的情況下得分的分布)。

此方法可以用于回歸或分類,要求選擇性能指標作為重要性得分的基礎(chǔ),例如回歸中的均方誤差和分類中的準確性。

可以通過permutation_importance()函數(shù)(以模型和數(shù)據(jù)集為參數(shù))和評分函數(shù)進行隨機排序特性選擇。

讓我們看下這個特征選擇方法,其算法并不支持特征選擇,尤其是k近鄰算法( k-nearest neighbors)。

5.1隨機排序(回歸)特征重要性

下面列出了擬合KNeighborsRegressor并且計算特征重要性得分的完整示例。

# permutation feature importance with knn for regression

from sklearn.datasets import make_regression

from sklearn.neighbors import KNeighborsRegressor

from sklearn.inspection import permutation_importance

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = KNeighborsRegressor()

# fit the model

model.fit(X, y)

# perform permutation importance

results = permutation_importance(model, X, y, scoring=‘neg_mean_squared_error’)

# get importance

importance = results.importances_mean

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 175.52007

Feature: 1, Score: 345.80170

Feature: 2, Score: 126.60578

Feature: 3, Score: 95.90081

Feature: 4, Score: 9666.16446

Feature: 5, Score: 8036.79033

Feature: 6, Score: 929.58517

Feature: 7, Score: 139.67416

Feature: 8, Score: 132.06246

Feature: 9, Score: 84.94768

然后為特征重要性得分創(chuàng)建條形圖。

5.2隨機排序(分類)特征重要性

下面列出了擬合KNeighborsClassifier并且計算特征重要性得分的完整示例。

# permutation feature importance with knn for classification

from sklearn.datasets import make_classification

from sklearn.neighbors import KNeighborsClassifier

from sklearn.inspection import permutation_importance

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = KNeighborsClassifier()

# fit the model

model.fit(X, y)

# perform permutation importance

results = permutation_importance(model, X, y, scoring=‘accuracy’)

# get importance

importance = results.importances_mean

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數(shù)值。

結(jié)果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.04760

Feature: 1, Score: 0.06680

Feature: 2, Score: 0.05240

Feature: 3, Score: 0.09300

Feature: 4, Score: 0.05140

Feature: 5, Score: 0.05520

Feature: 6, Score: 0.07920

Feature: 7, Score: 0.05560

Feature: 8, Score: 0.05620

Feature: 9, Score: 0.03080

然后為特征重要性得分創(chuàng)建條形圖。

總結(jié)

在本教程中,您知道了在Python機器學習中的特征重要性得分。

具體來說,您了解到:

特征重要性在預測建模問題中的作用

如何從線性模型和決策樹中計算和查看特征重要性

如何計算和查看隨機排序特征重要性得分

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4891

    瀏覽量

    70301
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25291
  • 網(wǎng)絡(luò)模型
    +關(guān)注

    關(guān)注

    0

    文章

    44

    瀏覽量

    8698
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    工業(yè)中使用哪種計算機

    在工業(yè)環(huán)境,工控機被廣泛使用。這些計算機的設(shè)計可承受極端溫度、灰塵和振動等惡劣條件。它們比標準消費類計算機更耐用、更可靠。工業(yè)計算機可控制機器
    的頭像 發(fā)表于 11-29 14:07 ?624次閱讀
    工業(yè)中使用哪種<b class='flag-5'>計算機</b>?

    簡述計算機總線的分類

    計算機總線作為計算機系統(tǒng)連接各個功能部件的公共通信干線,其結(jié)構(gòu)和分類對于理解計算機硬件系統(tǒng)的工作原理至關(guān)重要。以下是對
    的頭像 發(fā)表于 08-26 16:23 ?4883次閱讀

    計算機中總線的作用是什么

    計算機中,總線(Bus)扮演著極其重要的角色,它是計算機內(nèi)部各功能部件之間傳送信息的公共通信干線。總線不僅連接了計算機的各個核心組件,還確保了數(shù)據(jù)、指令和控制信號的高效、準確傳輸。
    的頭像 發(fā)表于 08-26 15:57 ?3380次閱讀

    【《時間序列與機器學習》閱讀體驗】+ 時間序列的信息提取

    本人有些機器學習的基礎(chǔ),理解起來一點也不輕松,加油。 作者首先說明了時間序列的信息提取是時間序列分析的一個重要環(huán)節(jié),目標是從給定的時間序列數(shù)據(jù)中提取出有用的信息和特征,以支持后續(xù)的分析
    發(fā)表于 08-14 18:00

    邊沿觸發(fā)器在計算機中的應用

    邊沿觸發(fā)器在計算機中的應用極為廣泛,它們作為數(shù)字電路的基本單元,對于實現(xiàn)計算機內(nèi)部的時序控制、數(shù)據(jù)存儲與傳輸、以及復雜邏輯功能等方面起著至關(guān)重要的作用。以下將從邊沿觸發(fā)器的定義、特點
    的頭像 發(fā)表于 08-12 14:20 ?1166次閱讀

    DRAM在計算機中的應用

    DRAM(Dynamic Random Access Memory,動態(tài)隨機存取存儲器)在計算機系統(tǒng)扮演著至關(guān)重要的角色。它是一種半導體存儲器,用于存儲和快速訪問數(shù)據(jù),是計算機主內(nèi)存
    的頭像 發(fā)表于 07-24 17:04 ?2696次閱讀

    Python在AI的應用實例

    Python在人工智能(AI)領(lǐng)域的應用極為廣泛且深入,從基礎(chǔ)的數(shù)據(jù)處理、模型訓練到高級的應用部署,Python都扮演著至關(guān)重要的角色。以下將詳細探討Python在AI
    的頭像 發(fā)表于 07-19 17:16 ?2450次閱讀

    機器視覺和計算機視覺有什么區(qū)別

    機器視覺和計算機視覺是兩個密切相關(guān)但又有所區(qū)別的概念。 一、定義 機器視覺 機器視覺,又稱為計算機視覺,是指利用
    的頭像 發(fā)表于 07-16 10:23 ?1025次閱讀

    機器學習的數(shù)據(jù)預處理與特征工程

    機器學習的整個流程,數(shù)據(jù)預處理與特征工程是兩個至關(guān)重要的步驟。它們直接決定了模型的輸入質(zhì)量,進而影響模型的訓練效果和泛化能力。本文將從數(shù)
    的頭像 發(fā)表于 07-09 15:57 ?1244次閱讀

    機器人視覺與計算機視覺的區(qū)別與聯(lián)系

    機器人視覺與計算機視覺是兩個密切相關(guān)但又有所區(qū)別的領(lǐng)域。 1. 引言 在當今科技迅猛發(fā)展的時代,機器人和計算機視覺技術(shù)在各個領(lǐng)域發(fā)揮著越來越重要
    的頭像 發(fā)表于 07-09 09:27 ?1112次閱讀

    計算機視覺與人工智能的關(guān)系是什么

    引言 計算機視覺是一門研究如何使計算機能夠理解和解釋視覺信息的學科。它涉及到圖像處理、模式識別、機器學習等多個領(lǐng)域的知識。人工智能則是研究如何使計算
    的頭像 發(fā)表于 07-09 09:25 ?1236次閱讀

    計算機視覺與智能感知是干嘛的

    引言 計算機視覺(Computer Vision)是一門研究如何使計算機能夠理解和解釋視覺信息的學科。它涉及到圖像處理、模式識別、機器學習等多個領(lǐng)域,是人工智能的
    的頭像 發(fā)表于 07-09 09:23 ?1665次閱讀

    計算機視覺和機器視覺區(qū)別在哪

    計算機視覺和機器視覺是兩個密切相關(guān)但又有明顯區(qū)別的領(lǐng)域。 一、定義 計算機視覺 計算機視覺是一門研究如何使計算機能夠像人類一樣理解和解釋視覺
    的頭像 發(fā)表于 07-09 09:22 ?806次閱讀

    計算機視覺屬于人工智能嗎

    屬于,計算機視覺是人工智能領(lǐng)域的一個重要分支。 引言 計算機視覺是一門研究如何使計算機具有視覺能力的學科,它涉及到圖像處理、模式識別、機器
    的頭像 發(fā)表于 07-09 09:11 ?2016次閱讀

    深度學習計算機視覺領(lǐng)域的應用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其中的核心技術(shù)之一,已經(jīng)在計算機視覺領(lǐng)域取得了顯著的成果。計算機視覺,作為計算機科學的一個重要分支,
    的頭像 發(fā)表于 07-01 11:38 ?1589次閱讀
    主站蜘蛛池模板: 97夜夜澡人人爽人人喊一欧美 | 国产亚洲综合精品一区二区三区 | 综合久久99 | 四虎影库永久在线 | 性欧美暴力猛交69hd | 久99频这里只精品23热 视频 | 国模论坛 | 校园春色亚洲欧美 | 人人澡人人澡碰人人看软件 | 色偷偷尼玛图亚洲综合 | 色婷婷亚洲精品综合影院 | 91日本视频| 色偷偷成人网免费视频男人的天堂 | 天堂网在线新版www 天堂网在线资源 | 国产黄色一级网站 | 永久免费视频 | 97影院理论 | 中国xxxxx高清免费看视频 | 成人黄色一级片 | 777国产精品永久免费观看 | 就去色综合 | 欧美天天性 | 亚洲偷图色综合色就色 | 在线色片 | 欧美人成绝费网站色www吃脚 | 特黄特色的大片观看免费视频 | 国产叼嘿视频网站在线观看 | 免费观看黄色网页 | 特级片毛片 | 久久久久久久国产 | 84pao强力永久免费高清 | 亚洲成熟人网站 | 高清国产一区二区三区 | 日本免费福利视频 | 人人玩人人弄人人曰 | 一区在线免费观看 | 国产情侣出租屋露脸实拍 | 91九色porny蝌蚪 | 四虎免费大片aⅴ入口 | 在线天堂资源 | ⅹxxxx68日本老师hd |