在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

半監(jiān)督學習算法的現(xiàn)實性評價

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-09-08 09:21 ? 次閱讀

編者按:半監(jiān)督學習是近年來非常熱門的一個研究領域,畢竟機器學習模型的本質(zhì)是個“吃”數(shù)據(jù)的“怪獸”,雖然現(xiàn)實世界擁有海量數(shù)據(jù),但針對某個問題的標記數(shù)據(jù)卻仍極度稀缺。為了用更少的標記數(shù)據(jù)完成更多現(xiàn)實任務,研究人員想出了這種從無標記數(shù)據(jù)中提取數(shù)據(jù)結(jié)構(gòu)的巧妙做法。那么它能被用于現(xiàn)實任務嗎?今天論智帶來的是NIPS 2018收錄的一篇Google Brain論文:Realistic Evaluation of Semi-Supervised Learning Algorithms。

摘要

當遇到標簽有限或沒有足夠經(jīng)費請人標記數(shù)據(jù)等問題時,半監(jiān)督學習(SSL)提供了一個強大的框架。近年來,基于深層神經(jīng)網(wǎng)絡的SSL算法在標準基準測試任務中被證明是有用的。但是,我們認為這些基準測試并不能解決在應用于實際任務時,這些算法將面臨的各種問題。

我們?yōu)橐恍V泛使用的SSL算法重新創(chuàng)建了統(tǒng)一實現(xiàn),并在一系列任務中對它們進行了測試。實驗發(fā)現(xiàn):那些不使用未標記數(shù)據(jù)的簡單基線的性能通常被低估了;對于不同數(shù)量的標記數(shù)據(jù)和未標記數(shù)據(jù),SSL算法的敏感程度也不同;并且當未標記數(shù)據(jù)集中包含不屬于該類的數(shù)據(jù)時,網(wǎng)絡性能會大幅降低。

為了幫助指導SSL研究真正能適應現(xiàn)實世界,我們公開了論文的統(tǒng)一重新實現(xiàn)和評估平臺。

簡介

無數(shù)實驗已經(jīng)證實,如果我們對大量數(shù)據(jù)進行標記,那么深層神經(jīng)網(wǎng)絡就能在某些監(jiān)督學習任務上實現(xiàn)和人類相仿,甚至超人的表現(xiàn)。然而,這種成功是需要代價的。也就是說,為了創(chuàng)建大型數(shù)據(jù)集,我們往往要耗費大量的人力、財力和風險在數(shù)據(jù)標記上。因此對于許多現(xiàn)實問題,它們沒有足夠的資源來構(gòu)建足夠大的數(shù)據(jù)集,這就限制了深度學習的廣泛應用。

解決這一問題的一種可行方法是使用半監(jiān)督學習框架。和需要標記數(shù)據(jù)的監(jiān)督學習算法相比,SSL算法能從未標記數(shù)據(jù)中提取數(shù)據(jù)結(jié)構(gòu),進而提高網(wǎng)絡性能,這降低了操作門檻。而最近的一些研究結(jié)果也表明,在某些情況下,即便給定數(shù)據(jù)集中的大部分數(shù)據(jù)都遺失了標簽,SSL算法也能接近純監(jiān)督學習的表現(xiàn)。

面對這些成功,一個自然而然的問題就是:SSL算法能否被用于現(xiàn)實世界的任務?在本文中,我們認為答案是否定的。具體而言,當我們選擇一個大型數(shù)據(jù)集,然后去除其中的大量標簽對比SSL算法和純監(jiān)督學習算法時,我們其實忽略了算法本身的各種常見特征。

下面是我們的一些發(fā)現(xiàn):

如果兩個神經(jīng)網(wǎng)絡在調(diào)參上花費相同資源,那么用SSL和只用標記數(shù)據(jù)帶來的性能差異會小于以往論文的實驗結(jié)論。

不使用未標記數(shù)據(jù)的、高度正則化的大型分類器往往具有強大性能,這證明了在同一底層模型上評估不同SSL算法的重要性。

如果先在不同的標記數(shù)據(jù)集上預訓練模型,之后再在指定數(shù)據(jù)集上訓練模型,它的最終性能會比用SSL算法高不少。

如果未標記數(shù)據(jù)中包含與標記數(shù)據(jù)不同的類分布,使用SSL算法的神經(jīng)網(wǎng)絡的性能會急劇下降。

事實上,小的驗證集會妨礙不同方法、模型和超參數(shù)設置之間的可靠比較。

評估方法改進

科研人員評估SSL算法一般遵循以下流程:首先,選擇一個用于監(jiān)督學習的通用數(shù)據(jù)集,刪去其中大多數(shù)數(shù)據(jù)的標簽;其次,把保留標簽的數(shù)據(jù)制作成小型數(shù)據(jù)集D,把未標記數(shù)據(jù)整理成數(shù)據(jù)集DUL;最后,用半監(jiān)督學習訓練一些模型,在未經(jīng)修改的測試集上檢驗它們的性能。

但下面是現(xiàn)有方法的缺陷及其改進:

P.1 一個共享的實現(xiàn)

現(xiàn)有SSL算法比較沒有考慮底層模型的一致性,這是不科學的。在某些情況下,同樣是簡單的13層CNN,不同實現(xiàn)會導致一些細節(jié),比如參數(shù)初始化、數(shù)據(jù)預處理、數(shù)據(jù)增強、正則化等,發(fā)生改變。不同模型的訓練過程(優(yōu)化、幾個epoch、學習率)也是不一樣的。因此,如果不用同一個底層實現(xiàn),算法對比不夠嚴謹。

P.2 高質(zhì)量監(jiān)督學習基線

SSL的目標是基于標記數(shù)據(jù)集D和未標記數(shù)據(jù)集DUL,使模型的性能比單獨用D訓練出來的完全相同的基礎模型更好。雖然道理很簡單,但不同論文對于這個基線的介紹卻存在出入,比如去年Laine&Aila和Tarvainen&Valpola在論文中用了一樣的基線,雖然模型是一樣的,但它們的準確率差竟然高達15%。

為了避免這種情況,我們參考為SSL調(diào)參,重新調(diào)整了基線模型,確保它的高質(zhì)量。

P.3 和遷移學習的對比

在實踐中,如果數(shù)據(jù)量有限,通常我們會用遷移學習,把在相似大型數(shù)據(jù)集上訓練好的模型拿過來,再根據(jù)手頭的小數(shù)據(jù)集進行“微調(diào)”。雖然這種做法的前提是存在那么一個相似的、夠大的數(shù)據(jù)集,但如果能實現(xiàn),遷移學習確實能提供性能強大的、通用性好的基線,而且這類基線很少有論文提及。

P.4 考慮類分布不匹配

需要注意的是,當我們選擇數(shù)據(jù)集并刪去其中大多數(shù)數(shù)據(jù)的標簽時,這些數(shù)據(jù)默認DUL的類分布和D的完全一致。但這不合理,想象一下,假設我們要訓練一個能區(qū)分十張人臉的分類器,但每個人的圖像樣本非常少,這時,你可能會選擇使用一個包含隨機人臉圖像的大型未標記數(shù)據(jù)集來進行填充,那么這個DUL中的圖像就并不完全是這十個人的。

現(xiàn)有的SSL算法評估都忽略了這種情況,而我們明確研究了類分布相同/類分布不同數(shù)據(jù)之間的影響。

P.5 改變標記和未標記數(shù)據(jù)的數(shù)量

改變兩種數(shù)據(jù)的數(shù)量這種做法并不罕見,研究人員通常喜歡通關刪去不同數(shù)量的底層標記數(shù)據(jù)來改變D的大小,但到目前為止,以系統(tǒng)的方式改變DUL確不太常見。這可以模擬兩種現(xiàn)實場景:一是未標記數(shù)據(jù)集非常巨大(比如用網(wǎng)絡數(shù)十億未標記圖像提高模型分類性能),二是未標記數(shù)據(jù)集相對較小(比如醫(yī)學影像數(shù)據(jù),它們的成本很高)。

P.6 切合實際的小型驗證集

人為創(chuàng)建的SSL數(shù)據(jù)集往往有個特征,就是驗證集會比訓練集大很多。比如SVHN的驗證集大約有7000個標記數(shù)據(jù),許多論文在用這個數(shù)據(jù)集做研究時,往往只從原訓練集里抽取1000個標記數(shù)據(jù),但會保留完整驗證集。這就意味著驗證集是訓練集的7倍,而在現(xiàn)實任務中,數(shù)據(jù)更多的集一般是會被作為訓練集的。

實驗

這個實驗的目的不是產(chǎn)生state-of-art的結(jié)果,而是通過建立一個通用框架,對各種模型性能進行嚴格的比較分析。此外,由于我們使用的模型架構(gòu)和超參數(shù)調(diào)整方法和以前的論文很不一樣,它們也沒法和過去的工作直接比較,只能單獨列出。

上表是實用各SSL算法的模型在驗證集上的錯誤率,它們使用了同樣的底層模型——Wide ResNet,縱坐標是監(jiān)督學習和各類常用的SSL算法:Π-Model, Mean Teacher, Virtual Adversarial Training, PseudoLabeling,以及Entropy Minimization。

需要注意的是,表格上部是前人的工作,下部是本文的成果,它們不能直接對比(本文模型使用的參數(shù)是上面的一半,所以性能會差一些)。但是,透過數(shù)據(jù)我們還是可以發(fā)現(xiàn):

結(jié)論1:Mean Teacher和VAT的表現(xiàn)總體不錯。

結(jié)論2:監(jiān)督學習模型和半監(jiān)督學習模型之間的性能差異并沒有其他論文中描述的那么大。

結(jié)論3:基于這個表格的數(shù)據(jù),我們用遷移學習訓練了一個模型,發(fā)現(xiàn)它在CIFAR-10驗證集上的錯誤率是12%,這個結(jié)果比SSL算法更好。

上圖是各模型在CIFAR-10上的錯誤率,已知標記訓練集有6類圖像,每類圖像400個樣本。其中縱坐標是錯誤率,橫坐標是未標記數(shù)據(jù)相對標記數(shù)據(jù)的不同類分布占比,比如25%表示未標記數(shù)據(jù)集中有1/4的類是標記數(shù)據(jù)集上沒有的。陰影區(qū)是五次實驗標準差。

結(jié)論4:和不使用任何未標記數(shù)據(jù)相比,如果我們在未標記數(shù)據(jù)集中加入更多的額外類,模型的性能會降低。

結(jié)論5:SSL算法對標記數(shù)據(jù)/未標記數(shù)據(jù)的不同數(shù)據(jù)量很敏感。

上圖是各算法模型的平均驗證錯誤對比,使用的是10個大小不同的隨機采樣非重疊驗證集。實線是平均值,陰影是標準差,訓練集是包含1000個標記數(shù)據(jù)的SVHN。圖中的縱坐標是錯誤率,橫坐標是驗證集相對于訓練集的大小,比如10%表示驗證集只包含100個標記數(shù)據(jù)。

結(jié)論6:10%是個合適的比例,因此對于嚴重依賴大型驗證集做超參數(shù)調(diào)整的SSL算法,它們的實際適用性很有限,即便是交叉驗證也沒法帶來太多改善。

總結(jié)

通過上述實驗結(jié)果,我們已經(jīng)證實把SSL算法用于現(xiàn)實實踐暫時是不恰當?shù)模敲唇窈笤撛趺丛u估它們呢?下面是一些建議:

在比較不同SSL算法時,使用完全相同的底層模型。模型結(jié)構(gòu)的差異,甚至是細節(jié),都會對最終結(jié)果產(chǎn)生很大影響。

仔細調(diào)整基線的在使用監(jiān)督學習和遷移學習時的準確率,SSL的目標應該是明顯優(yōu)于完全監(jiān)督學習。

呈現(xiàn)數(shù)據(jù)中混有其他類數(shù)據(jù)時模型的性能變化,因為這是現(xiàn)實場景中很常見的現(xiàn)象。

報告性能時,測試不同標記數(shù)據(jù)/未標記數(shù)據(jù)量下的情況。理想情況下,即便標記數(shù)據(jù)非常少,SSL算法也能從未標記數(shù)據(jù)中提取到有用信息。因此我們建議將SVHN與SVHN-Extra相結(jié)合,以測試算法在大型未標記數(shù)據(jù)中的性能。

不要在不切實際的大型驗證集上過度調(diào)參。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4781

    瀏覽量

    101189
  • 算法
    +關注

    關注

    23

    文章

    4631

    瀏覽量

    93378
  • SSL
    SSL
    +關注

    關注

    0

    文章

    126

    瀏覽量

    25783

原文標題:NIPS 2018入選論文:對深度半監(jiān)督學習算法的現(xiàn)實評價

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于監(jiān)督學習的跌倒檢測系統(tǒng)設計_李仲年

    基于監(jiān)督學習的跌倒檢測系統(tǒng)設計_李仲年
    發(fā)表于 03-19 19:11 ?4次下載

    基于監(jiān)督學習框架的識別算法

    問題,對半監(jiān)督學習中的協(xié)同訓練算法進行改進,提出了一種基于多學習器協(xié)同訓練模型的人體行為識別方法.這是一種基于監(jiān)督學習框架的識別
    發(fā)表于 01-21 10:41 ?1次下載

    你想要的機器學習課程筆記在這:主要討論監(jiān)督學習和無監(jiān)督學習

    with experience E(一個程序從經(jīng)驗E中學習解決任務T進行某一任務量度P,通過P測量在T的表現(xiàn)而提高經(jīng)驗E(另一種定義:機器學習是用數(shù)據(jù)或以往的經(jīng)驗,以此優(yōu)化計算機程序的性能標準。) 不同類型的機器學習
    發(fā)表于 12-03 17:12 ?595次閱讀

    如何用Python進行無監(jiān)督學習

    監(jiān)督學習是一種用于在數(shù)據(jù)中查找模式的機器學習技術。無監(jiān)督算法給出的數(shù)據(jù)不帶標記,只給出輸入變量(X),沒有相應的輸出變量。在無監(jiān)督學習中,
    的頭像 發(fā)表于 01-21 17:23 ?4331次閱讀

    谷歌:監(jiān)督學習其實正在悄然的進化

    上圖可以看出來,最開始的時候,監(jiān)督學習訓練確實有種提升監(jiān)督學習效果的趨勢,然而實際操作中,我們經(jīng)常陷入從“可怕又不可用”的狀態(tài),到“不那么可怕但仍然完全不可用”。
    的頭像 發(fā)表于 05-25 09:58 ?3000次閱讀
    谷歌:<b class='flag-5'>半</b><b class='flag-5'>監(jiān)督學習</b>其實正在悄然的進化

    聚焦 | 新技術“紅”不過十年?監(jiān)督學習卻成例外?

    就目前來看,監(jiān)督學習是一個很有潛力的方向。
    的頭像 發(fā)表于 06-18 17:24 ?2600次閱讀

    機器學習算法中有監(jiān)督和無監(jiān)督學習的區(qū)別

    監(jiān)督學習的好處之一是,它不需要監(jiān)督學習必須經(jīng)歷的費力的數(shù)據(jù)標記過程。但是,要權衡的是,評估其性能的有效也非常困難。相反,通過將監(jiān)督學習算法
    的頭像 發(fā)表于 07-07 10:18 ?5845次閱讀

    最基礎的監(jiān)督學習

    導讀 最基礎的監(jiān)督學習的概念,給大家一個感性的認識。 監(jiān)督學習(SSL)是一種機器學習技術,其中任務是從一個小的帶標簽的數(shù)據(jù)集和相對較大
    的頭像 發(fā)表于 11-02 16:08 ?2709次閱讀

    監(jiān)督學習最基礎的3個概念

    導讀 今天給大家介紹監(jiān)督學習中的3個最基礎的概念:一致正則化,熵最小化和偽標簽,并介紹了兩個經(jīng)典的監(jiān)督學習方法。 沒看一的點這里哈:
    的頭像 發(fā)表于 11-02 16:14 ?3032次閱讀
    <b class='flag-5'>半</b><b class='flag-5'>監(jiān)督學習</b>最基礎的3個概念

    為什么監(jiān)督學習是機器學習的未來?

    為什么監(jiān)督學習是機器學習的未來。 監(jiān)督學習是人工智能領域的第一種學習類型。從它的概念開始,無數(shù)的算法
    的頭像 發(fā)表于 11-27 10:42 ?3964次閱讀

    監(jiān)督學習:比監(jiān)督學習做的更好

    監(jiān)督學習是人工智能領域的第一種學習類型。從它的概念開始,無數(shù)的算法,從簡單的邏輯回歸到大規(guī)模的神經(jīng)網(wǎng)絡,都已經(jīng)被研究用來提高精...
    的頭像 發(fā)表于 12-08 23:32 ?1474次閱讀

    密度峰值聚類算法實現(xiàn)LGG的監(jiān)督學習

    聚類算法,迭代地從數(shù)據(jù)集中篩選出多個中心點,以每個中心點為簇中心進行局部聚類,并以中心點為頂點構(gòu)建圖,實現(xiàn)基于LGC的監(jiān)督學習。實驗結(jié)果表明,優(yōu)化后的LGC方法在D31、 Aggregation等數(shù)據(jù)集上具有較好的魯棒
    發(fā)表于 03-11 11:21 ?21次下載
    密度峰值聚類<b class='flag-5'>算法</b>實現(xiàn)LGG的<b class='flag-5'>半</b><b class='flag-5'>監(jiān)督學習</b>

    機器學習中的無監(jiān)督學習應用在哪些領域

    監(jiān)督學習|機器學習| 集成學習|進化計算| 非監(jiān)督學習| 監(jiān)督學習| 自
    發(fā)表于 01-20 10:52 ?5003次閱讀
    機器<b class='flag-5'>學習</b>中的無<b class='flag-5'>監(jiān)督學習</b>應用在哪些領域

    一種基于偽標簽監(jiān)督學習的小樣本調(diào)制識別算法

    一種基于偽標簽監(jiān)督學習的小樣本調(diào)制識別算法 來源:《西北工業(yè)大學學報》,作者史蘊豪等 摘 要:針對有標簽樣本較少條件下的通信信號調(diào)制識別問題,提出了一種基于偽標簽
    發(fā)表于 02-10 11:37 ?855次閱讀

    監(jiān)督學習代碼庫存在的問題與挑戰(zhàn)

    當使用監(jiān)督學習(Supervised Learning)對大量高質(zhì)量的標記數(shù)據(jù)(Labeled Data)進行訓練時,神經(jīng)網(wǎng)絡模型會產(chǎn)生有競爭力的結(jié)果。例如,根據(jù)Paperswithcode網(wǎng)站統(tǒng)計
    的頭像 發(fā)表于 10-18 16:28 ?1360次閱讀
    主站蜘蛛池模板: 操操干干| 天堂在线www天堂中文在线 | 亚洲综合色视频 | 色福利网 | 曰本福利写真片视频在线 | 国产三级精品播放 | 丁香婷婷综合网 | 午夜黄色大片 | 午夜影视啪啪免费体验区深夜 | 波多野结衣在线网址 | 美女扒开内裤无遮挡禁18 | 91寡妇天天综合久久影院 | 久久是精品 | 99热成人精品热久久669 | 国产精品久久久亚洲第一牛牛 | 97视频人人 | 男人午夜网站 | 五月婷婷一区 | 香港三级理论在线观看网站 | 美女扒开尿口给男人爽的视频 | 99久久久精品免费观看国产 | 欧美一级片免费在线观看 | bt种子在线www天堂官网 | 色多多福利网站 | 黄色国产网站 | h网站在线播放 | 亚洲深夜 | 97菊爱网| 亚洲综合色在线 | 亚洲精品亚洲人成毛片不卡 | 色香欲亚洲天天综合网 | 性欧美黑人巨大videos | 狠狠插狠狠操 | 又黄又湿又爽 | 国产亚洲美女精品久久久久狼 | 久草视频在线免费看 | 大学生一级特黄的免费大片视频 | 恐怖片大全恐怖片免费观看好看的恐怖片 | 高清一区二区三区四区五区 | 精品精品国产自在久久高清 | 日韩一级片在线免费观看 |