在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)算法的無監(jiān)督學(xué)習(xí)的詳細(xì)介紹

lviY_AI_shequ ? 來源:未知 ? 作者:易水寒 ? 2018-05-01 17:43 ? 次閱讀

????Content:

9.1 Supervised Learning and Unsupervised Learning

9.2 K-means algorithm

9.3 Optimization objective

9.4 Random Initialization

9.5 Choosing the Number of Clusters

9.1 Supervised Learning and Unsupervised Learning

我們已經(jīng)學(xué)習(xí)了許多機(jī)器學(xué)習(xí)算法,包括線性回歸,Logistic回歸,神經(jīng)網(wǎng)絡(luò)以及支持向量機(jī)。這些算法都有一個(gè)共同點(diǎn),即給出的訓(xùn)練樣本自身帶有標(biāo)記。比如,使用線性回歸預(yù)測(cè)房?jī)r(jià)時(shí),我們所使用的每一個(gè)訓(xùn)練樣本是一個(gè)或多個(gè)變量(如面積,樓層等)以及自身帶有的標(biāo)記即房?jī)r(jià)。而使用Logistic回歸,神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)處理分類問題時(shí),也是利用訓(xùn)練樣本自身帶有標(biāo)記即種類,例如進(jìn)行垃圾郵件分類時(shí)是利用已有的垃圾郵件(標(biāo)記為1)和非垃圾郵件(標(biāo)記為0),進(jìn)行數(shù)字識(shí)別時(shí),變量是每個(gè)像素點(diǎn)的值,而標(biāo)記是數(shù)字本身的值。我們把使用帶有標(biāo)記的訓(xùn)練樣本進(jìn)行學(xué)習(xí)的算法稱為監(jiān)督學(xué)習(xí)(Supervised Learning)。監(jiān)督學(xué)習(xí)的訓(xùn)練樣本可以統(tǒng)一成如下形式,其中x為變量,y為標(biāo)記。

顯然,現(xiàn)實(shí)生活中不是所有數(shù)據(jù)都帶有標(biāo)記(或者說標(biāo)記是未知的)。所以我們需要對(duì)無標(biāo)記的訓(xùn)練樣本進(jìn)行學(xué)習(xí),來揭示數(shù)據(jù)的內(nèi)在性質(zhì)及規(guī)律。我們把這種學(xué)習(xí)稱為無監(jiān)督學(xué)習(xí)(Unsupervised Learning)。所以,無監(jiān)督學(xué)習(xí)的訓(xùn)練樣本如下形式,它僅包含特征量。

圖9-1形象的表示了監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)的區(qū)別。圖(1)表示給帶標(biāo)記的樣本進(jìn)行分類,分界線兩邊為不同的類(一類為圈,另一類為叉);圖(2)是基于變量x1和x2對(duì)無標(biāo)記的樣本(表面上看起來都是圈)進(jìn)行聚類(Clustering)。

機(jī)器學(xué)習(xí)算法的無監(jiān)督學(xué)習(xí)的詳細(xì)介紹

圖9-1 一個(gè)監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)的區(qū)別實(shí)例

無監(jiān)督學(xué)習(xí)也有很多應(yīng)用,一個(gè)聚類的例子是:對(duì)于收集到的論文,根據(jù)每個(gè)論文的特征量如詞頻,句子長(zhǎng),頁(yè)數(shù)等進(jìn)行分組。聚類還有許多其它應(yīng)用,如圖9-2所示。一個(gè)非聚類的例子是雞尾酒會(huì)算法,即從帶有噪音的數(shù)據(jù)中找到有效數(shù)據(jù)(信息),例如在嘈雜的雞尾酒會(huì)你仍然可以注意到有人叫你。所以雞尾酒會(huì)算法可以用于語(yǔ)音識(shí)別(詳見wikipedia)。

quora上有更多關(guān)于監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)之間的區(qū)別的討論。

機(jī)器學(xué)習(xí)算法的無監(jiān)督學(xué)習(xí)的詳細(xì)介紹

圖9-2 一些聚類的應(yīng)用

9.2 K-means algorithm

聚類的基本思想是將數(shù)據(jù)集中的樣本劃分為若干個(gè)通常是不相交的子集,每個(gè)子集稱為一個(gè)"簇"(cluster)。劃分后,每個(gè)簇可能有對(duì)應(yīng)的概念(性質(zhì)),比如根據(jù)頁(yè)數(shù),句長(zhǎng)等特征量給論文做簇?cái)?shù)為2的聚類,可能得到一個(gè)大部分是包含碩士畢業(yè)論文的簇,另一個(gè)大部分是包含學(xué)士畢業(yè)論文的簇。

K均值(K-means)算法是一個(gè)廣泛使用的用于簇劃分的算法。下面說明K均值算法的步驟:

隨機(jī)初始化K個(gè)樣本(點(diǎn)),稱之為簇中心(cluster centroids);

簇分配: 對(duì)于所有的樣本,將其分配給離它最近的簇中心;

移動(dòng)簇中心:對(duì)于每一個(gè)簇,計(jì)算屬于該簇的所有樣本的平均值,移動(dòng)簇中心到平均值處;

重復(fù)步驟2和3,直到找到我們想要的簇(即優(yōu)化目標(biāo),詳解下節(jié)9.3)

圖9-3演示了以特征量個(gè)數(shù)和簇?cái)?shù)K均為2的情況。

機(jī)器學(xué)習(xí)算法的無監(jiān)督學(xué)習(xí)的詳細(xì)介紹

圖9-3 K均值算法的演示

通過上述描述,下面我們形式化K均值算法。

輸入:

K (number of clusters)

Training set

算法:

Randomly initialize K cluster centroids

Repeat {

for i = 1 to m

for k = 1 to K

}

上述算法中,第一個(gè)循環(huán)對(duì)應(yīng)了簇分配的步驟:我們構(gòu)造向量c,使得c(i)的值等于x(i)所屬簇的索引,即離x(i)最近簇中心的索引。用數(shù)學(xué)的方式表示如下:

第二個(gè)循環(huán)對(duì)應(yīng)移動(dòng)簇中心的步驟,即移動(dòng)簇中心到該簇的平均值處。更數(shù)學(xué)的方式表示如下:

其中

如果有一個(gè)簇中心沒有分配到一個(gè)樣本,我們既可以重新初始化這個(gè)簇中心,也可以直接將其去除。

經(jīng)過若干次迭代后,該算法將會(huì)收斂,也就是繼續(xù)迭代不會(huì)再影響簇的情況。

在某些應(yīng)用中,樣本可能比較連續(xù),看起來沒有明顯的簇劃分,但是我們還是可以用K均值算法將樣本分為K個(gè)子集供參考。例如根據(jù)人的身高和體重劃分T恤的大小碼,如圖9-4所示。

圖9-4K-means for non-separated clusters

9.3 Optimization objective

重新描述在K均值算法中使用的變量:

使用這些變量,定義我們的cost function如下:

所以我們的優(yōu)化目標(biāo)就是

結(jié)合9.2節(jié)所描述的算法,可以發(fā)現(xiàn):

在簇分配步驟中,我們的目標(biāo)是通過改變

在移動(dòng)簇中心步驟中,我們的目標(biāo)通過改變

注意,在K均值算法中,cost function不可能能增加,它應(yīng)該總是下降的(區(qū)別于梯度下降法)。

9.4 Random Initialization

下面介紹一種值得推薦的初始化簇中心的方法。

確保K < m,也就是確保簇的數(shù)量應(yīng)該小于樣本數(shù);

隨機(jī)選擇K個(gè)訓(xùn)練樣本;

令K個(gè)簇中心

K均值算法可能陷入局部最優(yōu)。為了減少這種情況的發(fā)生,我們可以基于隨機(jī)初始化,多次運(yùn)行K均值算法。所以,算法變成如下形式(以運(yùn)行100次為例:效率與準(zhǔn)確性的tradeoff)

For i = 1 to 100 {

Randomly initialize K-means.

Run K-means. Get

Compute cost function (distortion)

}

Pick clustering that gave lowest cost

9.5 Choosing the Number of Clusters

選擇K的取值通常是主觀的,不明確的。也就是沒有一種方式確保K的某個(gè)取值一定優(yōu)于其他取值。但是,有一些方法可供參考。

The elbow method: 畫出代價(jià)J關(guān)于簇?cái)?shù)K的函數(shù)圖,J值應(yīng)該隨著K的增加而減小,然后趨于平緩,選擇當(dāng)J開始趨于平衡時(shí)的K的取值。如圖9-5的(1)所示。

但是,通常這條曲線是漸變的,沒有很顯然的"肘部"。如圖9-5的(2)所示。

機(jī)器學(xué)習(xí)算法的無監(jiān)督學(xué)習(xí)的詳細(xì)介紹

圖9-5 代價(jià)J關(guān)于簇?cái)?shù)K的曲線圖

注意:隨著K的增加J應(yīng)該總是減少的,否則,一種出錯(cuò)情況可能是K均值陷入了一個(gè)糟糕的局部最優(yōu)。

一些其他的方法參見wikipedia。

當(dāng)然,我們有時(shí)應(yīng)該根據(jù)后續(xù)目的( later/downstream purpose )來確定K的取值。還是以根據(jù)人的身高和體重劃分T恤的大小碼為例,若我們想將T恤大小劃分為S/M/L這3種類型,那么K的取值應(yīng)為3;若想要?jiǎng)澐譃閄S/S/M/L/XL這5種類型,那么K的取值應(yīng)為5。如圖9-6所示。

機(jī)器學(xué)習(xí)算法的無監(jiān)督學(xué)習(xí)的詳細(xì)介紹

圖9-6 劃分T恤size的兩種不同情況

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:Stanford機(jī)器學(xué)習(xí)筆記-9. 聚類(Clustering)

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用MATLAB進(jìn)行監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,
    的頭像 發(fā)表于 05-16 14:48 ?592次閱讀
    使用MATLAB進(jìn)行<b class='flag-5'>無</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    請(qǐng)問STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?

    STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?
    發(fā)表于 03-13 07:34

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長(zhǎng)以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場(chǎng)
    的頭像 發(fā)表于 02-13 09:39 ?308次閱讀

    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機(jī)器算法,AI 算法的知識(shí),需要搭建一個(gè)學(xué)習(xí)環(huán)境,所以就在最近購(gòu)買的華為云 Flexus X 實(shí)例上安裝了
    的頭像 發(fā)表于 01-02 13:43 ?454次閱讀
    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多
    的頭像 發(fā)表于 12-30 09:16 ?1069次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個(gè)組織聯(lián)合發(fā)布了一篇時(shí)間序列監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時(shí)間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?678次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 09:19 ?1116次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2801次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語(yǔ)法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語(yǔ)言的深層次理解,如文化背景、語(yǔ)境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量標(biāo)簽文本數(shù)據(jù)
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用監(jiān)督算法訓(xùn)練

    標(biāo)記數(shù)據(jù)的處理尤為有效,能夠充分利用互聯(lián)網(wǎng)上的海量數(shù)據(jù)資源。以下將詳細(xì)探討神經(jīng)網(wǎng)絡(luò)如何用監(jiān)督算法進(jìn)行訓(xùn)練,包括常見的
    的頭像 發(fā)表于 07-09 18:06 ?1397次閱讀

    深度學(xué)習(xí)中的監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的監(jiān)督學(xué)
    的頭像 發(fā)表于 07-09 10:50 ?1590次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個(gè)重要分支,其目標(biāo)是通過讓計(jì)算機(jī)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無需進(jìn)行明確的編程。本文將深入解讀幾種常見的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-02 11:25 ?2200次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器
    的頭像 發(fā)表于 07-01 11:40 ?2288次閱讀

    機(jī)器學(xué)習(xí)的經(jīng)典算法與應(yīng)用

    關(guān)于數(shù)據(jù)機(jī)器學(xué)習(xí)就是喂入算法和數(shù)據(jù),讓算法從數(shù)據(jù)中尋找一種相應(yīng)的關(guān)系。Iris鳶尾花數(shù)據(jù)集是一個(gè)經(jīng)典數(shù)據(jù)集,在統(tǒng)計(jì)學(xué)習(xí)
    的頭像 發(fā)表于 06-27 08:27 ?1977次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的經(jīng)典<b class='flag-5'>算法</b>與應(yīng)用
    主站蜘蛛池模板: 黄色a网 | 国产成人精品系列在线观看 | 女的扒开尿口让男人桶爽 | 欧美1314www伊人久久香网 | 亚洲伊人电影 | 九色综合九色综合色鬼 | 久久久久久久综合狠狠综合 | 免费一级欧美在线观看视频片 | 国产小毛片 | 美女很黄很黄是免费的·无遮挡网站 | 久久国产精品岛国搬运工 | 黄视频网站免费看 | 免费xxxx大片| 人人看人人添人人爽 | 色吧五月天 | 五月婷婷久 | 六月丁香婷婷激情国产 | 全部免费特黄特色大片视频 | 一区二区三区亚洲 | 三级毛片免费观看 | 亚洲操综合 | 欧美乱强性伦xxxxx | 日本免费不卡视频一区二区三区 | 天堂最新版| 午夜影院免费观看 | 日韩精品午夜 | 天天爽夜夜爽人人爽曰喷水 | 五月婷综合网 | 四虎海外在线永久免费看 | 亚洲国产成人久久一区www | 伊人啪| 在线视免费频观看韩国aaa | 午夜亚洲 | 狠狠做久久深爱婷婷97动漫 | 天天天天天操 | 久久婷人人澡人人爽 | 亚洲国产精品久久网午夜 | 欧美一级视频免费 | 国产精品美女一区二区三区 | 日日夜夜天天干干 | 精品久久香蕉国产线看观看亚洲 |