在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習模型類型分類

新機器視覺 ? 來源:新機器視覺 ? 2023-09-05 11:45 ? 次閱讀

機器學習按照模型類型分為監督學習模型、無監督學習模型兩大類。

1. 有監督學習

有監督學習通常是利用帶有專家標注的標簽的訓練數據,學習一個從輸入變量X到輸入變量Y的函數映射。Y = f (X),訓練數據通常是(n×x,y)的形式,其中n代表訓練樣本的大小,x和y分別是變量X和Y的樣本值。

有監督學習可以被分為兩類:

  • 分類問題:預測某一樣本所屬的類別(離散的)。比如判斷性別,是否健康等。

  • 回歸問題:預測某一樣本的所對應的實數輸出(連續的)。比如預測某一地區人的平均身高。

除此之外,集成學習也是一種有監督學習。它是將多個不同的相對較弱的機器學習模型的預測組合起來,用來預測新的樣本。

1.1 單模型

1.11 線性回歸

adf19f6a-4b9d-11ee-a25d-92fbcf53809c.png

線性回歸是指完全由線性變量組成的回歸模型。在線性回歸分析中,只包括一個自變量和一個因變量,且二者的關系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個或兩個以上的自變量,且因變量和自變量之間是線性關系,則稱為多元線性回歸分析。

1.12 邏輯回歸

adfc059a-4b9d-11ee-a25d-92fbcf53809c.png

用于研究Y為定類數據時X和Y之間的影響關系情況,如果Y為兩類比如0和1(比如1為愿意和0為不愿意,1為購買和0為不購買),此時就叫二元邏輯回歸;如果Y為三類以上,此時就稱為多分類邏輯回歸。

自變量并不一定非要定類變量,它們也可以是定量變量。如果X是定類數據,此時需要對X進行啞變量設置。

1.13 Lasso

ae058a48-4b9d-11ee-a25d-92fbcf53809c.png

Lasso方法是一種替代最小二乘法的壓縮估計方法。Lasso的基本思想是建立一個L1正則化模型,在模型建立過程中會壓縮一些系數和設定一些系數為零,當模型訓練完成后,這些權值等于0的參數就可以舍去,從而使模型更為簡單,并且有效防止模型過擬合。被廣泛用于存在多重共線性數據的擬合和變量選擇。

1.14 K近鄰(KNN)

KNN做回歸和分類的主要區別在于最后做預測時候的決策方式不同。KNN做分類預測時,一般是選擇多數表決法,即訓練集里和預測的樣本特征最近的K個樣本,預測為里面有最多類別數的類別。KNN做回歸時,一般是選擇平均法,即最近的K個樣本的樣本輸出的平均值作為回歸預測值。但它們的理論是一樣的。

1.15 決策樹

ae19fc3a-4b9d-11ee-a25d-92fbcf53809c.png

決策樹中每個內部節點都是一個分裂問題:指定了對實例的某個屬性的測試,它將到達該節點的樣本按照某個特定的屬性進行分割,并且該節點的每一個后繼分支對應于該屬性的一個可能值。分類樹葉節點所含樣本中,其輸出變量的眾數就是分類結果。回歸樹的葉節點所含樣本中,其輸出變量的平均值就是預測結果。

1.16 bp神經網絡

ae32bf9a-4b9d-11ee-a25d-92fbcf53809c.png

bp神經網絡是一種按誤差逆傳播算法訓練的多層前饋網絡,是目前應用最廣泛的神經網絡模型之一。bp神經網絡的學習規則是使用最速下降法,通過反向傳播來不斷調整網絡的權值和閾值,使網絡的分類錯誤率最小(誤差平方和最小)。

BP 神經網絡是一種多層的前饋神經網絡,其主要的特點是:信號是前向傳播的,而誤差是反向傳播的。具體來說,對于如下的只含一個隱層的神經網絡模型:

BP 神經網絡的過程主要分為兩個階段,第一階段是信號的前向傳播,從輸入層經過隱含層,最后到達輸出層;第二階段是誤差的反向傳播,從輸出層到隱含層,最后到輸入層,依次調節隱含層到輸出層的權重和偏置,輸入層到隱含層的權重和偏置。

1.17 支持向量機(SVM)

ae47d4b6-4b9d-11ee-a25d-92fbcf53809c.png

支持向量機回歸(SVR)用非線性映射將數據映射到高維數據特征空間中,使得在高維數據特征空間中自變量與因變量具有很好的線性回歸特征,在該特征空間進行擬合后再返回到原始空間。

支持向量機分類(SVM)是一類按監督學習方式對數據進行二元分類的廣義線性分類器,其決策邊界是對學習樣本求解的最大邊距超平面。

1.18 樸素貝葉斯

ae5b3466-4b9d-11ee-a25d-92fbcf53809c.png

在給定一個事件發生的前提下,計算另外一個事件發生的概率——我們將會使用貝葉斯定理。假設先驗知識為d,為了計算我們的假設h為真的概率,我們將要使用如下貝葉斯定理:

ae6e781e-4b9d-11ee-a25d-92fbcf53809c.png

該算法假定所有的變量都是相互獨立的。

1.2 集成學習

集成學習是一種將不同學習模型(比如分類器)的結果組合起來,通過投票或平均來進一步提高準確率。一般,對于分類問題用投票;對于回歸問題用平均。這樣的做法源于“眾人拾材火焰高”的想法。

集成算法主要有三類:Bagging,Boosting 和Stacking。本文將不談及stacking。

ae7744ee-4b9d-11ee-a25d-92fbcf53809c.jpg
  • Boosting

ae92a52c-4b9d-11ee-a25d-92fbcf53809c.png

1.21 GBDT

GBDT 是以 CART 回歸樹為基學習器的 Boosting 算法,是一個加法模型,它串行地訓練一組 CART 回歸樹,最終對所有回歸樹的預測結果加和,由此得到一個強學習器,每一顆新樹都擬合當前損失函數的負梯度方向。最后輸出這一組回歸樹的加和,直接得到回歸結果或者套用 sigmod 或者 softmax 函數獲得二分類或者多分類結果。

1.22 adaboost

adaboost給予誤差率低的學習器一個高的權重,給予誤差率高的學習器一個低的權重,結合弱學習器和對應的權重,生成強學習器。回歸問題與分類問題算法的不同點在于誤差率計算的方式不同,分類問題一般都采用0/1損失函數,而回歸問題一般都是平方損失函數或者是線性損失函數。

1.23 XGBoost

XGBoost 是"極端梯度上升"(Extreme Gradient Boosting)的簡稱,XGBoost 算法是一類由基函數與權重進行組合形成對數據擬合效果佳的合成算法。由于 XGBoost 模型具有較強的泛化能力、較高的拓展性、較快的運算速度等優勢, 從2015年提出后便受到了統計學、數據挖掘、機器學習領域的歡迎。

xgboost是GBDT的一種高效實現,和GBDT不同,xgboost給損失函數增加了正則化項;且由于有些損失函數是難以計算導數的,xgboost使用損失函數的二階泰勒展開作為損失函數的擬合。

1.24 LightGBM

LightGBM 是 XGBoost 一種高效實現,其思想是將連續的浮點特征離散成 k 個離散值,并構造寬度為 k 的直方圖。然后遍歷訓練數據,計算每個離散值在直方圖中的累計統計量。在進行特征選擇時,只需要根據直方圖的離散值,遍歷尋找最優的分割點;且使用帶有深度限制的按葉子生長(leaf-wise)策略,節省了不少時間和空間上的開銷。

1.25 CatBoost

catboost 是一種基于對稱決策樹算法的 GBDT 框架,主要解決的痛點是高效合理地處理類別型特征和處理梯度偏差、預測偏移問題,提高算法的準確性和泛化能力。

  • Bagging

aeb04dfc-4b9d-11ee-a25d-92fbcf53809c.png

1.26 隨機森林

隨機森林分類在生成眾多決策樹的過程中,是通過對建模數據集的樣本觀測和特征變量分別進行隨機抽樣,每次抽樣結果均為一棵樹,且每棵樹都會生成符合自身屬性的規則和分類結果(判斷值),而森林最終集成所有決策樹的規則和分類結果(判斷值),實現隨機森林算法的分類(回歸)。

1.27 Extra Trees

extra-trees (極其隨機的森林)和隨機森林非常類似,這里的“及其隨機”表現在決策樹的結點劃分上,它干脆直接使用隨機的特征和隨機的閾值劃分,這樣我們每一棵決策樹形狀、差異就會更大、更隨機。

2 無監督學習

無監督學習問題處理的是,只有輸入變量X沒有相應輸出變量的訓練數據。它利用沒有專家標注訓練數據,對數據的結構建模。

2.1 聚類

將相似的樣本劃分為一個簇(cluster)。與分類問題不同,聚類問題預先并不知道類別,自然訓練數據也沒有類別的標簽。

2.11 K-means算法

aec8f488-4b9d-11ee-a25d-92fbcf53809c.png

聚類分析是一種基于中心的聚類算法(K 均值聚類),通過迭代,將樣本分到 K 個類中,使得每個樣本與其所屬類的中心或均值的距離之和最小。與分層聚類等按照字段進行聚類的算法不同的是,快速聚類分析是按照樣本進行聚類。

2.12 分層聚類

aed905a8-4b9d-11ee-a25d-92fbcf53809c.png

分層聚類法作為聚類的一種,是對給定數據對象的集合進行層次分解,根據分層分解采用的分解策略。層次聚類算法按數據分層建立簇,形成一棵以簇為節點的樹。如果按自底向上進行層次分解,則稱為凝聚的層次聚類,比如 AGNES。而按自頂向下的進行層次分解,則稱為分裂法層次聚類,比如 DIANA。一般用的比較多的是凝聚層次聚類。

2.2 降維

降維指減少數據的維度同時保證不丟失有意義的信息。利用特征提取方法和特征選擇方法,可以達到降維的效果。特征選擇是指選擇原始變量的子集。特征提取是將數據從高緯度轉換到低緯度。廣為熟知的主成分分析算法就是特征提取的方法。

2.21 PCA主成分分析

aeef0010-4b9d-11ee-a25d-92fbcf53809c.png

主成分分析將多個有一定相關性的指標進行線性組合,以最少的維度解釋原數據中盡可能多的信息為目標進行降維,降維后的各變量間彼此線性無關,最終確定的新變量是原始變量的線性組合,且越往后主成分在方差中的比重也小,綜合原信息的能力越弱。

2.22 SVD奇異值分解

奇異值分解(SVD)是在機器學習領域廣泛運用的算法,他不光可以用在降維算法中的特征值分解,還可以用于推薦系統,以及自然語言處理等領域,是很多算法的基石。

2.23 LDA線性判別

af005cac-4b9d-11ee-a25d-92fbcf53809c.png

線性判別的原理是將樣本投影到一條直線上,使得同類樣本的投影點盡可能接近,不同樣本的投影點盡可能遠離;在對新樣本進行分類時,將其投影到同樣的直線上,再根據投影點的位置來確定新樣本的類別。

審核編輯:彭菁


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7145

    瀏覽量

    89581
  • 函數
    +關注

    關注

    3

    文章

    4346

    瀏覽量

    62974
  • 模型
    +關注

    關注

    1

    文章

    3313

    瀏覽量

    49226
  • 機器學習
    +關注

    關注

    66

    文章

    8439

    瀏覽量

    133087

原文標題:機器學習知識點全面總結!

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型評估指標

    機器學習模型指標在機器學習建模過程中,針對不同的問題,需采用不同的模型評估指標。
    發表于 09-06 12:51 ?1171次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>評估指標

    【下載】《機器學習》+《機器學習實戰》

    方法(決策樹、神經網絡、支持向量機、貝葉斯分類器、集成學習、聚類、降維與度量學習);第3 部分(第11~16 章)為進階知識,內容涉及特征選擇與稀疏學習、計算
    發表于 06-01 15:49

    機器學習與模式識別

    本書將機器學習看成一個整體,不管于基于頻率的方法還是貝葉斯方法,不管是回歸模型還是分類模型,都只是一個問題的不同側面。作者能夠開啟上帝視角,
    發表于 03-18 08:30

    機器學習分類

    各種機器學習的應用場景分別是什么?例如,k近鄰,貝葉斯,決策樹,svm,邏輯斯蒂回歸和最大熵模型
    發表于 09-10 10:53

    Edge Impulse的分類模型淺析

    Edge Impulse是一個應用于嵌入式領域的在線的機器學習網站,不僅為用戶提供了一些現成的神經網絡模型以供訓練,還能直接將訓練好的模型轉換成能在單片機MCU上運行的代碼,使用方便,
    發表于 12-20 06:51

    什么是機器學習? 機器學習基礎入門

    的指導下,這個過程從數據開始。也就是說,我們嵌入式系統產生的大量數據。機器學習開發過程的第一步是收集數據,并在數據輸入模型之前對其進行標記。標記是一個關鍵的分類步驟,也是我們將一組輸入
    發表于 06-21 11:06

    部署基于嵌入的機器學習模型

    1、如何在生產中部署基于嵌入的機器學習模型  由于最近大量的研究,機器學習模型的性能在過去幾年里
    發表于 11-02 15:09

    圖像分類的方法之深度學習與傳統機器學習

    實際情況非常復雜,傳統的分類方法不堪重負。現在,我們不再試圖用代碼來描述每一個圖像類別,決定轉而使用機器學習的方法處理圖像分類問題。 目前,許多研究者使用CNN等深度
    發表于 09-28 19:43 ?0次下載

    機器學習類型介紹

    機器學習可以分為監督學習,半監督學習,非監督學習,強化學習,深度
    發表于 03-12 16:01 ?3285次閱讀

    基于LSTM的表示學習-文本分類模型

    的關鍵。為了獲得妤的文本表示,提高文本分類性能,構建了基于LSTM的表示學習-文本分類模型,其中表示學習
    發表于 06-15 16:17 ?18次下載

    模型為什么是深度學習的未來?

    與傳統機器學習相比,深度學習是從數據中學習,而大模型則是通過使用大量的模型來訓練數據。深度
    的頭像 發表于 02-16 11:32 ?2165次閱讀

    機器學習分類分析與聚類分析

    數據挖掘中應用較多的技術機器學習機器學習主流算法包括三種:關聯分析、分類分析、聚類分析。
    的頭像 發表于 03-27 14:13 ?5109次閱讀

    機器學習挑戰:如何避免機器學習模型過擬合?

    分類機器學習最常見的應用之一。 分類技術可預測離散的響應 — 例如,電子郵件是不是垃圾郵件,腫瘤是惡性還是良性的。 分類
    的頭像 發表于 05-11 09:53 ?1235次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>挑戰:如何避免<b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>過擬合?

    機器學習算法匯總 機器學習算法分類 機器學習算法模型

    是解決具體問題的一系列步驟,機器學習的算法被設計用于從大量的數據中自動學習并不斷改進自身的性能。本文將為大家介紹機器學習算法匯總和
    的頭像 發表于 08-17 16:11 ?1169次閱讀

    機器學習有哪些算法?機器學習分類算法有哪些?機器學習預判有哪些算法?

    許多不同的類型和應用。根據機器學習的任務類型,可以將其分為幾種不同的算法類型。本文將介紹機器
    的頭像 發表于 08-17 16:30 ?2071次閱讀
    主站蜘蛛池模板: 国产伦精品一区二区三区 | 九九九色 | 婷婷色在线播放 | 免费的黄视频 | 欧美成人观看免费全部完小说 | 中文在线最新版天堂bt | 久青草国产观看在线视频 | 亚洲国产成人久久一区www | 久久国产99 | 五月天婷婷基地 | 亚洲大黑香蕉在线观看75 | 国产综合免费视频 | 日a在线| 免费在线观看一级片 | 久久综合久久久久 | 波多野结衣50连精喷在线 | 亚洲成在人色婷婷 | 色综合久久九月婷婷色综合 | 黑人影院 | 欧美色欧美亚洲高清在线观看 | 久久国产热视频 | 4hu影院最新地址www | 开心激情五月网 | 美国一级大黄香蕉片 | 日本媚薬痉挛在线观看免费 | 四虎最新网址 | 天堂网在线最新版www中文网 | 狠狠狠色丁香婷婷综合久久88 | 九色综合网 | 亚洲午夜顶级嘿嘿嘿影院 | 免费国产黄网站在线观看视频 | 夜夜想夜夜爽天天爱天天摸 | 五月天婷婷在线观看 | 天天爽夜夜爽免费看 | 午夜免费影视 | 欧美色视频在线观看 | 一区二区免费在线观看 | 高清一本之道加勒比在线 | 日本视频免费高清一本18 | 久久综合九色 | a一级视频 |