在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)模型的三種評(píng)估方法

汽車(chē)玩家 ? 來(lái)源:博客園 ? 作者:凌逆戰(zhàn) ? 2020-01-29 10:30 ? 次閱讀

經(jīng)驗(yàn)誤差與過(guò)擬合

錯(cuò)誤率為分類(lèi)錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例,相應(yīng)的精度=1-錯(cuò)誤率,模型的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱(chēng)為“誤差”,模型在訓(xùn)練集上的誤差稱(chēng)為“訓(xùn)練誤差”,在新樣本上的誤差稱(chēng)為“泛化誤差”。我們希望得到在新樣本上表現(xiàn)好的學(xué)習(xí)器,也就是泛化誤差小的學(xué)習(xí)器,但是并不是泛化誤差越小越好,我們應(yīng)該盡可能出訓(xùn)練樣本中學(xué)出適用于所有潛在樣本的“普遍規(guī)律”,然而模型把訓(xùn)練樣本學(xué)的太好,很可能把訓(xùn)練完本自身的特點(diǎn)當(dāng)做所有潛在樣本都具有的一般性質(zhì),這樣就導(dǎo)致了泛化性能下降,這種現(xiàn)象稱(chēng)為“過(guò)擬合”,相對(duì)立的是“欠擬合”,是指訓(xùn)練樣本的一般性質(zhì)尚未學(xué)好。欠擬合比較容易克制,例如在決策樹(shù)學(xué)習(xí)中擴(kuò)展分支、在神經(jīng)網(wǎng)絡(luò)中增加訓(xùn)練輪數(shù),然而過(guò)擬合是無(wú)法避免的,我們所能做的就是盡量“緩解”,在現(xiàn)實(shí)生活中,我們往往有有多種學(xué)習(xí)算法可供選擇,對(duì)于同一算法,當(dāng)使用不同參數(shù)配置時(shí),也會(huì)產(chǎn)生不同的模型。

評(píng)估方法

通過(guò)“訓(xùn)練集”訓(xùn)練出機(jī)器學(xué)習(xí)模型,通過(guò)“測(cè)試集”來(lái)測(cè)試模型對(duì)新樣本的判別能力,然后以測(cè)試集上的“測(cè)試誤差”作為泛化誤差近似,當(dāng)需要注意的是,測(cè)試集應(yīng)該盡可能與測(cè)試集互斥,即測(cè)試樣本盡量不在訓(xùn)練樣本中出現(xiàn)、未在訓(xùn)練過(guò)程中使用。解釋為什么(老師出了10道習(xí)題供同學(xué)們練習(xí),考試時(shí)老師又用同樣的這10道題作為考題,這個(gè)考試成績(jī)是否能反應(yīng)出同學(xué)們真實(shí)情況,機(jī)器學(xué)習(xí)的模型是希望得到泛化能力強(qiáng)的模型,獲得舉一反三的能力)。

我們一共包含m個(gè)樣例的數(shù)據(jù)集D={(x1,y1),{x2,y2}...,(xm,ym)}},既要訓(xùn)練,又要測(cè)試,我們通常對(duì)D進(jìn)行適當(dāng)?shù)奶幚?,從中產(chǎn)出訓(xùn)練集S和測(cè)試集T。

留出法

“留出法”直接將數(shù)據(jù)集D劃分為兩個(gè)互斥的集合,其中一個(gè)集合作為訓(xùn)練集S,另一個(gè)作為測(cè)試集T,D=S∪T,S∩T=? 需要注意的是,訓(xùn)練/測(cè)試的劃分要盡可能的保持?jǐn)?shù)據(jù)的一致性,避免應(yīng)數(shù)據(jù)的劃分過(guò)程引入額外的偏差而對(duì)最終結(jié)果產(chǎn)生影響,也就是兩個(gè)集合中樣本類(lèi)別比例要相似,這種保留類(lèi)別比例的采樣方式稱(chēng)為“分層采樣”??杉词故沁@樣,仍然存在多種劃分方式, 例如可以把D中的樣本排序,然后把前350個(gè)正例放到訓(xùn)練集中,也可以把最后350個(gè)正例放到訓(xùn)練集中,.....這不同的劃分將導(dǎo)致不同的訓(xùn)練/測(cè)試集,模型估計(jì)必然會(huì)有偏差,

因此,單次使用留出法得到的估計(jì)結(jié)果往往不夠穩(wěn)定可靠,在使用留出法時(shí),一般要采用若干次隨機(jī)劃分、重復(fù)實(shí)驗(yàn)取平均值作為留出法的結(jié)果。此外我們使用留出法對(duì)數(shù)據(jù)集D進(jìn)行劃分,會(huì)有一個(gè)很尷尬的局面,當(dāng)訓(xùn)練集S過(guò)多,訓(xùn)練出的模型可能更加接近用D訓(xùn)練出的結(jié)局,但是由于測(cè)試集T太少,評(píng)估結(jié)果不夠穩(wěn)定精確;若令訓(xùn)練集T的樣本數(shù)過(guò)多,這訓(xùn)練出的模型和用整個(gè)數(shù)據(jù)集D訓(xùn)練出的模型相差就更加大了,這個(gè)問(wèn)題沒(méi)有完美的解決方法,常見(jiàn)做法是將2/3~4/5的樣本用于訓(xùn)練。

交叉驗(yàn)證法

“交叉驗(yàn)證法”先將數(shù)據(jù)集D劃分為k個(gè)大小相似的互斥子集,即 D = D1∪D2....∪Dk, Di∩ Dj= ?(i≠j),每個(gè)子集 Di都盡可能保持?jǐn)?shù)據(jù)分布的一致性,即從D中通過(guò)分層采樣得到。然后,每次用k-1 個(gè)子集的并集作為訓(xùn)練集,其余的那個(gè)子集作為測(cè)試集;這樣就可獲得k組訓(xùn)練/測(cè)試集,從而可進(jìn)行k 次訓(xùn)練和測(cè)試,最終返回的是這k 個(gè)測(cè)試結(jié)果的均值。通常把交叉驗(yàn)證法稱(chēng)為“k折交叉驗(yàn)證”。

與留出法類(lèi)似,k折交叉驗(yàn)證要隨機(jī)使用不同的劃分重復(fù)p次,最終的評(píng)估結(jié)果是這p 次k 折交叉驗(yàn)證結(jié)果的均值。

“留一法”是數(shù)據(jù)集D包含m個(gè)樣本,若令 k=m,得到交叉驗(yàn)證的一個(gè)特例,留一法不收隨機(jī)樣本劃分方式的影響,劃分方式為m個(gè)子集,每個(gè)子集一個(gè)樣本,使得訓(xùn)練集和初始數(shù)據(jù)集只少一個(gè)樣本,所以被訓(xùn)練出的模型很接近實(shí)際的評(píng)估模型,但是留一法也有缺點(diǎn),當(dāng)數(shù)據(jù)集m很大的時(shí)候,根本無(wú)法承受訓(xùn)練m個(gè)模型的計(jì)算(m等于一百萬(wàn))。

自助法

給定包含m個(gè)樣本的數(shù)據(jù)集D,我們對(duì)它進(jìn)行采樣產(chǎn)生數(shù)據(jù)集D': 每次隨機(jī)從D中挑選一個(gè)樣本7,將其拷貝放入D' 然后再將該樣本放回初始數(shù)據(jù)集D中,使得該樣本在下次采樣時(shí)仍有可能被采到,這個(gè)過(guò)程重復(fù)執(zhí)行m 次后,我們就得到了包含m個(gè)樣本的數(shù)據(jù)集D',這就是自助采樣的結(jié)果,顯然,D 中有一部分樣本會(huì)在D'中多次出現(xiàn),而另一部分樣本不出現(xiàn).可以做一個(gè)簡(jiǎn)單的估計(jì),樣本在m 次采樣中始終不被采到的概率是取極限得到

即通過(guò)自助來(lái)樣,初始數(shù)據(jù)集D 中約有36.8% 的樣本未出現(xiàn)在采樣數(shù)據(jù)集D'中.于是我們可將D' 用作訓(xùn)練集, D\D' 用作測(cè)試集;這樣實(shí)際評(píng)估的模型與期望評(píng)估的模型都使用m個(gè)訓(xùn)練樣本,而我們?nèi)杂袛?shù)據(jù)總量約1/3 的、沒(méi)在訓(xùn)練集中出現(xiàn)的樣本用于測(cè)試.這樣的測(cè)試結(jié)果,亦稱(chēng)"包外估計(jì)"

自助法在數(shù)據(jù)集較小、難以有效劃分訓(xùn)練/測(cè)試集是很有用;此外,自助法產(chǎn)生的數(shù)據(jù)集改變了初始數(shù)據(jù)集的分布,這會(huì)引起估計(jì)偏差,因此在數(shù)據(jù)量足夠大的時(shí)候還是留出法和交叉驗(yàn)證法更常用一些。

調(diào)參與最終模型

在進(jìn)行模型評(píng)估與選擇的時(shí)候,除了要對(duì)使用學(xué)習(xí)算法進(jìn)行選擇,還需對(duì)算法參數(shù)進(jìn)行設(shè)定,這就是常說(shuō)的“參數(shù)調(diào)節(jié)”簡(jiǎn)稱(chēng)“調(diào)參”。對(duì)每種參數(shù)配置都訓(xùn)練出模型,然后把最好的模型作為結(jié)果,但是對(duì)每種參數(shù)訓(xùn)練出模型是不可行的,現(xiàn)實(shí)中常用的做法,是對(duì)每個(gè)參數(shù)選定一個(gè)范圍和變化步長(zhǎng),例如[0,0.2],步長(zhǎng)選定0.05,則實(shí)際要評(píng)估的參數(shù)為5個(gè),但即便是這樣同樣是不可行的,假設(shè)一個(gè)算法有3個(gè)參數(shù),每個(gè)參數(shù)有5個(gè)候選參數(shù),那么一共需要考慮53=125個(gè)模型,參數(shù)調(diào)的不好往往直接影響模型的關(guān)鍵性能。

這就需要在計(jì)算開(kāi)銷(xiāo)和性能估計(jì)中進(jìn)行折中考慮。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    機(jī)器學(xué)習(xí)模型評(píng)估指標(biāo)

    機(jī)器學(xué)習(xí)模型指標(biāo)在機(jī)器學(xué)習(xí)建模過(guò)程中,針對(duì)不同的問(wèn)題,需采用不同的模型
    發(fā)表于 09-06 12:51 ?1189次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>評(píng)估</b>指標(biāo)

    三種模型評(píng)估方式

    [R - ml] 模型評(píng)估
    發(fā)表于 10-09 12:39

    常用的FBAR模型有哪三種?

    常用的FBAR模型有哪三種?
    發(fā)表于 03-11 06:16

    部署基于嵌入的機(jī)器學(xué)習(xí)模型

    還需要處理模型的更新。模型更新的速度甚至可以非常高,因?yàn)?b class='flag-5'>模型需要定期地根據(jù)最新的數(shù)據(jù)進(jìn)行再訓(xùn)練。  本文將描述一更復(fù)雜的機(jī)器
    發(fā)表于 11-02 15:09

    三種電路仿真軟件比較及器件模型加入方法

    摘要:在比較了ORCAD/PSPICE,PROTEL,Electronics Workbench三種仿真軟件各自特點(diǎn)的基礎(chǔ)上,介紹了把基于SPICE語(yǔ)言的器件模型加入三種軟件的方法,實(shí)
    發(fā)表于 05-10 09:03 ?95次下載

    噪聲系數(shù)測(cè)量的三種方法

    噪聲系數(shù)測(cè)量的三種方法 本文介紹了測(cè)量噪聲系數(shù)的三種方法:增益法、Y
    發(fā)表于 05-07 13:38 ?2174次閱讀

    機(jī)器學(xué)習(xí)模型評(píng)估和優(yōu)化

    監(jiān)督學(xué)習(xí)的主要任務(wù)就是用模型實(shí)現(xiàn)精準(zhǔn)的預(yù)測(cè)。我們希望自己的機(jī)器學(xué)習(xí)模型在新數(shù)據(jù)(未被標(biāo)注過(guò)的)上取得盡可能高的準(zhǔn)確率。換句話(huà)說(shuō),也就是我們希
    發(fā)表于 10-12 15:33 ?0次下載
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>之<b class='flag-5'>模型</b><b class='flag-5'>評(píng)估</b>和優(yōu)化

    NLP的介紹和如何利用機(jī)器學(xué)習(xí)進(jìn)行NLP以及三種NLP技術(shù)的詳細(xì)介紹

    本文用簡(jiǎn)潔易懂的語(yǔ)言,講述了自然語(yǔ)言處理(NLP)的前世今生。從什么是NLP到為什么要學(xué)習(xí)NLP,再到如何利用機(jī)器學(xué)習(xí)進(jìn)行NLP,值得一讀。這是該系列的第一部分,介紹了三種NLP技術(shù):
    的頭像 發(fā)表于 06-10 10:26 ?7.7w次閱讀
    NLP的介紹和如何利用<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)行NLP以及<b class='flag-5'>三種</b>NLP技術(shù)的詳細(xì)介紹

    機(jī)器學(xué)習(xí)三種交叉驗(yàn)證

    訓(xùn)練集用來(lái)訓(xùn)練模型,驗(yàn)證集用于模型的選擇,而測(cè)試集用于最終對(duì)學(xué)習(xí)方法評(píng)估。
    的頭像 發(fā)表于 03-15 16:30 ?2466次閱讀

    機(jī)器學(xué)習(xí)模型評(píng)估與選擇詳細(xì)資料說(shuō)明

    本文檔的主要內(nèi)容詳細(xì)介紹的是機(jī)器學(xué)習(xí)模型評(píng)估與選擇詳細(xì)資料說(shuō)明。
    發(fā)表于 03-24 08:00 ?0次下載
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>模型</b><b class='flag-5'>評(píng)估</b>與選擇詳細(xì)資料說(shuō)明

    機(jī)器學(xué)習(xí)模型評(píng)估的11個(gè)指標(biāo)

    建立機(jī)器學(xué)習(xí)模型的想法是基于一個(gè)建設(shè)性的反饋原則。你構(gòu)建一個(gè)模型,從指標(biāo)中獲得反饋,進(jìn)行改進(jìn),直到達(dá)到理想的精度為止。評(píng)估指標(biāo)解釋了
    的頭像 發(fā)表于 05-04 10:04 ?3529次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>評(píng)估</b>的11個(gè)指標(biāo)

    三種學(xué)習(xí)模式在于深度學(xué)習(xí)的未來(lái)

    提出來(lái)。不過(guò),總的來(lái)說(shuō),現(xiàn)代深度學(xué)習(xí)可以分為三種基本的學(xué)習(xí)范式。每一都有自己的學(xué)習(xí)方法和理念,提升了機(jī)
    的頭像 發(fā)表于 10-23 09:37 ?2237次閱讀
    這<b class='flag-5'>三種</b><b class='flag-5'>學(xué)習(xí)</b>模式在于深度<b class='flag-5'>學(xué)習(xí)</b>的未來(lái)

    深度學(xué)習(xí)三種學(xué)習(xí)模式介紹

    深度學(xué)習(xí)是一個(gè)廣闊的領(lǐng)域,它圍繞著一形態(tài)由數(shù)百萬(wàn)甚至數(shù)十億個(gè)變量決定并不斷變化的算法——神經(jīng)網(wǎng)絡(luò)。似乎每隔一天就有大量的新方法和新技術(shù)被提出來(lái)。不過(guò),總的來(lái)說(shuō),現(xiàn)代深度學(xué)習(xí)可以分為
    的頭像 發(fā)表于 10-23 14:59 ?1.3w次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>三種</b><b class='flag-5'>學(xué)習(xí)</b>模式介紹

    如何評(píng)估機(jī)器學(xué)習(xí)模型的性能?機(jī)器學(xué)習(xí)的算法選擇

    如何評(píng)估機(jī)器學(xué)習(xí)模型的性能?典型的回答可能是:首先,將訓(xùn)練數(shù)據(jù)饋送給學(xué)習(xí)算法以學(xué)習(xí)一個(gè)
    發(fā)表于 04-04 14:15 ?1074次閱讀

    靜電放電ESD三種模型及其防護(hù)設(shè)計(jì)

    點(diǎn)擊關(guān)注,電磁兼容不迷路。靜電放電ESD三種模型及其防護(hù)設(shè)計(jì)ESD:ElectrostaticDischarge,即是靜電放電,每個(gè)從事硬件設(shè)計(jì)和生產(chǎn)的工程師都必須掌握ESD的相關(guān)知識(shí)。為了定量
    的頭像 發(fā)表于 09-15 08:02 ?3640次閱讀
    靜電放電ESD<b class='flag-5'>三種</b><b class='flag-5'>模型</b>及其防護(hù)設(shè)計(jì)
    主站蜘蛛池模板: 在线免费视频国产 | 色依依视频视频在线观看 | 免费在线观看视频 | 天天干天天射天天 | 天天射夜夜操 | 色噜噜亚洲精品中文字幕 | 天堂在线天堂最新版在线www | 天天干夜夜添 | 黄黄视频免费看 | 在线播放91灌醉迷j高跟美女 | 国产拍拍拍免费视频网站 | 最新在线网址 | 午夜精品福利视频 | 三级毛片免费 | 午夜爽爽性刺激一区二区视频 | 日本在线网址 | 91aaa免费观看在线观看资源 | 欧美性满足hd1819 | 欧美系列在线 | 最新色网站 | 午夜爽爽性刺激一区二区视频 | 美女扒开内裤让男人桶 | 久久伊人操 | 校园 春色 欧美 另类 小说 | 1024视频在线观看国产成人 | 123综合网在线 | 欧美一级看片a免费观看 | 我不卡老子影院午夜伦我不卡四虎 | 日本高清免费一本视频在线观看 | 亚洲成av人片在线观看无码 | 亚洲视频一区二区三区 | 天天做日日干 | 狠狠色婷婷七月色综合 | 四虎在线永久免费观看 | 欧美.亚洲.日本一区二区三区 | 欧美区在线播放 | 午夜看黄 | 免费三级毛片 | 人人干网 | 国产精品久久久久久久久福利 | h小视频在线观看网 |