在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型的閉集準(zhǔn)確率與開(kāi)集識(shí)別能力正相關(guān)的觀點(diǎn)

倩倩 ? 來(lái)源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-09-09 09:28 ? 次閱讀

參考一篇綜述,首先介紹兩個(gè)概念:

Close Set Recognition,閉集識(shí)別:指 訓(xùn)練集中的類(lèi)別和測(cè)試集中的類(lèi)別是一致的,例如最常用最經(jīng)典的ImageNet-1k。所有在測(cè)試集中的圖像的類(lèi)別都在訓(xùn)練集中出現(xiàn)過(guò),沒(méi)有未知種類(lèi)的圖像。從AlexNet到VGG,再到ResNet,以及最近大火的Visual Transformer,都能夠比較好的處理這一類(lèi)別的任務(wù)。

Open Set Recognition,開(kāi)集識(shí)別:指對(duì)一個(gè)在訓(xùn)練集上訓(xùn)練好的模型,當(dāng)利用一個(gè)測(cè)試集(該測(cè)試集的中包含訓(xùn)練集中沒(méi)有的類(lèi)別)進(jìn)行測(cè)試時(shí),如果輸入已知類(lèi)別數(shù)據(jù),輸出具體的類(lèi)別,如果輸入的是未知類(lèi)別的數(shù)據(jù),則進(jìn)行合適的處理(識(shí)別為unknown或者out-of-distribution)。例如在利用一個(gè)數(shù)據(jù)集訓(xùn)練好了一個(gè)模型可以對(duì)狗和人進(jìn)行分類(lèi),而輸入一張狗的圖像,由于softmax這種方式的設(shè)定,模型可能會(huì)告訴你80%的概率為人,但顯然這是不合理的,限制了模型泛化性能提升。而我們想要的結(jié)果,是當(dāng)輸入不為貓和人的圖像(比如狗)時(shí),模型輸出為未知類(lèi)別,輸入人或貓圖像,模型輸出對(duì)應(yīng)具體的類(lèi)別。

3ab9d0de-2fde-11ed-ba43-dac502259ad0.png

由于現(xiàn)實(shí)場(chǎng)景中更多的是開(kāi)放和非靜態(tài)的環(huán)境,所以在模型部署中,經(jīng)常會(huì)出現(xiàn)一些沒(méi)有見(jiàn)過(guò)的情況,所以這種考慮開(kāi)集檢測(cè)的因素,對(duì)模型的部署十分有必要。那么模型在Close set和在Open set的表現(xiàn)是否存在一定的相關(guān)性呢?下面我們來(lái)了解一份ICLR 2021的工作來(lái)嘗試?yán)斫夂吞剿鲀烧咧g的關(guān)系。

在本文中,作者重新評(píng)估一些open set識(shí)別的方法,通過(guò)探索是否訓(xùn)練良好的閉集的分類(lèi)器通過(guò)分析baseline的數(shù)據(jù)集,可以像最近的算法一樣執(zhí)行。要做到這一點(diǎn),我們首先研究了分類(lèi)器的閉集和開(kāi)集性能之間的關(guān)系。

雖然人們可能期望更強(qiáng)的close set分類(lèi)器過(guò)度擬合到train set出現(xiàn)的類(lèi)別,因此在OSR中表現(xiàn)較差。其實(shí)最簡(jiǎn)單的方法也非常直觀,就是‘maximum softmax probability (MSP) baseline,即經(jīng)過(guò)softmax輸出的最大的概率值。而該論文展示了在close set和open set上開(kāi)放集的表現(xiàn)是高度相關(guān)的,這一點(diǎn)是非常關(guān)鍵的。而且展這種趨勢(shì)在不同的數(shù)據(jù)集、目標(biāo)以及模型架構(gòu)中都是成立的。并在ImageNet-1k這個(gè)量級(jí)上的數(shù)據(jù)集進(jìn)行評(píng)估,更能說(shuō)明該方法的有效性。

但僅僅觀察到這種現(xiàn)象,這種contribution雖然有意義,但可能也不足以支撐一篇頂會(huì)oral,所以自然要基于這一現(xiàn)象展開(kāi)一些方法上的設(shè)計(jì),來(lái)提升開(kāi)集檢測(cè)的表現(xiàn)。根據(jù)這一觀察,論文提出一種通過(guò)改善close set性能的方式來(lái)進(jìn)一步提升open set上的表現(xiàn)。

具體來(lái)說(shuō),我們引入了更多的增強(qiáng)、更好的學(xué)習(xí)率調(diào)度和標(biāo)簽平滑等策略,這些策略顯著提高了MSP基線(xiàn)的close set和open set性能。我們還建議使用maximum logit score(MLS),而不是MSP來(lái)作為開(kāi)放集指標(biāo)。通過(guò)這些調(diào)整,可以在不改變模型結(jié)構(gòu)的情況下,非常有效的提升模型open set狀態(tài)下的識(shí)別性能。

3. 方法

3c2742e4-2fde-11ed-ba43-dac502259ad0.png

首先就是一張非常直觀的圖,在不用的數(shù)據(jù)集上,對(duì)OSR和CSR兩個(gè)任務(wù)的表現(xiàn)進(jìn)行比較。論文首先利用標(biāo)準(zhǔn)基準(zhǔn)數(shù)據(jù)集上,選取三種有代表性的開(kāi)放集識(shí)別方法,包括MSP,ARPL以及ARPL+CS。然后利用一個(gè)類(lèi)似于VGG形態(tài)的的輕量級(jí)模型,在不同的分類(lèi)數(shù)據(jù)集上進(jìn)行檢測(cè)??梢钥吹絆SR和CSR兩個(gè)任務(wù)的表現(xiàn)是呈現(xiàn)出高度的正相關(guān)的。

對(duì)于理論上的證明,論文選取了模型校準(zhǔn)的角度來(lái)解讀。直觀地說(shuō),模型校準(zhǔn)的目的是量化模型是否具有感知對(duì)象類(lèi)別的能力,即是否可以把低置信度的預(yù)測(cè)與高錯(cuò)誤率相關(guān)聯(lián)。也就是說(shuō)如果給了很低的置信度,而錯(cuò)誤率又是很高的,那么就可以定義為模型沒(méi)有被很好地校準(zhǔn)。反之,則說(shuō)明模型被很好地校準(zhǔn)了。

3c5c5092-2fde-11ed-ba43-dac502259ad0.png

3c811c10-2fde-11ed-ba43-dac502259ad0.png

到目前為止,論文已經(jīng)證明了在單一、輕量級(jí)架構(gòu)和小規(guī)模數(shù)據(jù)集上封閉集和開(kāi)放集性能之間的相關(guān)性——盡管我們強(qiáng)調(diào)它們是OSR文獻(xiàn)中現(xiàn)有的標(biāo)準(zhǔn)基準(zhǔn)。如上圖,論文又在在大規(guī)模數(shù)據(jù)集(ImageNet-1k)上試驗(yàn)了一系列架構(gòu)。和在CIFAR-10等小數(shù)據(jù)集一致,該數(shù)據(jù)集也存在上述的現(xiàn)象。

至于,獲得更好的open set recognition上的表現(xiàn),也就非常直接了。就是通過(guò)各種優(yōu)化方式、訓(xùn)練策略的設(shè)計(jì),讓模型可以能夠在close set上具有更好的性能。完整的細(xì)節(jié)和用于提高封閉集性能的方法的表格明細(xì)可以在論文,以及附錄中更好地了解。

論文還提出一種新的評(píng)估close set性能的方式。以前的工作指出,開(kāi)放集的例子往往比封閉集的例子具有更低的norm。因此,我們建議在開(kāi)放集評(píng)分規(guī)則中使用最大對(duì)數(shù),而不是softmax概率。Logits是深度分類(lèi)器中最后一個(gè)線(xiàn)性層的原始輸出,而softmax操作涉及到一個(gè)歸一化,從而使輸出可以被解釋為一個(gè)概率向量的和為1。由于softmax操作將logits中存在的大部分特征幅度信息歸一化,作者發(fā)現(xiàn)logits能帶來(lái)更好的開(kāi)放集檢測(cè)結(jié)果。

3cae29b2-2fde-11ed-ba43-dac502259ad0.png

這種新的方式,改善了在所有數(shù)據(jù)集上的性能,并大大縮小了與最先進(jìn)方法的差距,各數(shù)據(jù)集的AUROC平均絕對(duì)值增加了13.9%。如果以報(bào)告的baseline和當(dāng)前最先進(jìn)的方法之間的差異比例來(lái)計(jì)算,這意味著平均差異減少了87.2%。MLS方法還在TinyImageNet上取得了新的領(lǐng)先優(yōu)勢(shì),比OpenHybrid高出3.3%。

另外,作者指出,目前的標(biāo)準(zhǔn)OSRbaseline評(píng)價(jià)方式有兩個(gè)缺點(diǎn):

它們都只涉及小規(guī)模的數(shù)據(jù)集;

它們?nèi)狈?duì)構(gòu)成 "語(yǔ)義類(lèi) "的明確定義。

后者對(duì)于將開(kāi)放集領(lǐng)域與其他研究問(wèn)題,如out-of-distribution以及outlier的檢測(cè),進(jìn)行區(qū)分非常重要。OSR旨在識(shí)別測(cè)試圖像是否與訓(xùn)練類(lèi)有語(yǔ)義上的不同,而不是諸如模型對(duì)其預(yù)測(cè)不確定或是否出現(xiàn)了低層次的distribution shift。所以作者基于這兩個(gè)缺點(diǎn),提出來(lái)了新的baseline用于評(píng)估open set的性能。具體關(guān)于數(shù)據(jù)集的細(xì)節(jié),可以參考原文

4. 結(jié)論

在這篇文章中,作者給出了模型的閉集準(zhǔn)確率與開(kāi)集識(shí)別能力正相關(guān)的觀點(diǎn),同時(shí)通過(guò)實(shí)驗(yàn)驗(yàn)證了加強(qiáng)模型的閉集性能能夠幫助我們獲得更強(qiáng)的開(kāi)集能力。對(duì)于 Open-Set Recognition 具有啟發(fā)意義。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7241

    瀏覽量

    91001
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3486

    瀏覽量

    49990
  • 分類(lèi)器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13407

原文標(biāo)題:開(kāi)集識(shí)別: A Good Closed-Set Classifier is All You Need

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練模型是不斷迭
    發(fā)表于 04-28 11:11

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】人臉識(shí)別

    標(biāo)定位置準(zhǔn)確。 多張人臉同時(shí)識(shí)別 在單張人臉識(shí)別的基礎(chǔ)上,嘗試多張人臉同時(shí)識(shí)別的情況。 將目標(biāo)圖片上傳至板端并運(yùn)行程序,終端輸出推理識(shí)別結(jié)果
    發(fā)表于 04-01 21:46

    請(qǐng)問(wèn)NanoEdge AI數(shù)據(jù)該如何構(gòu)建?

    我想用NanoEdge來(lái)識(shí)別異常的聲音,但我目前沒(méi)有辦法生成模型,我感覺(jué)可能是數(shù)據(jù)的問(wèn)題,請(qǐng)問(wèn)我該怎么構(gòu)建數(shù)據(jù)?或者生成模型失敗還會(huì)有哪
    發(fā)表于 03-10 08:20

    浪潮信息:元腦EPAI已接入DeepSeek,大幅提升DeepSeek企業(yè)應(yīng)用準(zhǔn)確率

    結(jié)合,深度開(kāi)發(fā)模型潛力,快速實(shí)現(xiàn)本地化部署DeepSeek,構(gòu)建準(zhǔn)確率高、安全穩(wěn)定的專(zhuān)屬智能應(yīng)用。實(shí)測(cè)數(shù)據(jù)顯示,DeepSeek在元腦企智EPAI上開(kāi)發(fā)的企業(yè)應(yīng)用回答準(zhǔn)確率達(dá)到95%。 ? 企業(yè)落地
    的頭像 發(fā)表于 02-23 07:32 ?497次閱讀
    浪潮信息:元腦EPAI已接入DeepSeek,大幅提升DeepSeek企業(yè)應(yīng)用<b class='flag-5'>準(zhǔn)確率</b>

    請(qǐng)問(wèn)AFE4400 SPO2精度和準(zhǔn)確率如何?

    請(qǐng)問(wèn)用TI 的AFE4400 EVM 測(cè)量SPO2 的值,有沒(méi)有詳細(xì)的說(shuō)明其測(cè)量的準(zhǔn)確率和精度,抗弱灌注等。謝謝! 比如如下類(lèi)似: SpO2 測(cè)量范圍 0~100% 分辨 1% 精度 70~100%, 2%
    發(fā)表于 01-15 07:02

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    同時(shí)優(yōu)化多個(gè)相關(guān)任務(wù)的損失函數(shù)來(lái)提升模型的泛化能力。學(xué)習(xí)調(diào)整策略:合理的學(xué)習(xí)調(diào)整可以加速模型
    發(fā)表于 01-14 16:51

    如何提升人臉門(mén)禁一體機(jī)的識(shí)別準(zhǔn)確率

    準(zhǔn)確率,可以從以下幾個(gè)方面進(jìn)行改進(jìn)。一、優(yōu)化算法與模型人臉識(shí)別的核心在于算法的優(yōu)化和模型的調(diào)整,目前深度學(xué)習(xí)技術(shù)在圖像識(shí)別中的應(yīng)用取得了顯著
    的頭像 發(fā)表于 12-10 15:05 ?840次閱讀
    如何提升人臉門(mén)禁一體機(jī)的<b class='flag-5'>識(shí)別</b><b class='flag-5'>準(zhǔn)確率</b>?

    微機(jī)保護(hù)裝置預(yù)警功能的準(zhǔn)確率

    異常狀態(tài)。 微機(jī)保護(hù)裝置的預(yù)警功能準(zhǔn)確率是衡量其性能的重要指標(biāo),它直接關(guān)系到裝置能否及時(shí)準(zhǔn)確地檢測(cè)潛在的故障或異常情況,從而預(yù)防事故的發(fā)生。 準(zhǔn)確率影響因素: 1.硬件性能:高精度的傳感器和強(qiáng)大的數(shù)據(jù)處理單元直
    的頭像 發(fā)表于 11-03 16:10 ?449次閱讀

    ai人工智能回答準(zhǔn)確率高嗎

    ,AI可能表現(xiàn)出較高的準(zhǔn)確率。例如,在圖像識(shí)別、語(yǔ)音識(shí)別等領(lǐng)域,經(jīng)過(guò)大量訓(xùn)練的AI系統(tǒng)通常能夠取得令人滿(mǎn)意的準(zhǔn)確率。 然而,在其他領(lǐng)域或場(chǎng)景下,AI的
    的頭像 發(fā)表于 10-17 16:30 ?6303次閱讀

    NIUSB6009 采集準(zhǔn)確率的問(wèn)題?

    NIUSB6009 采集準(zhǔn)確率的問(wèn)題? 一、本人做一個(gè)中間繼電器電性能實(shí)驗(yàn)的裝置 1、PLC帶動(dòng)中間繼電器吸合和釋放,(吸合用時(shí)1.5秒,釋放用時(shí)1.5秒)周而復(fù)始的運(yùn)動(dòng)。 2、中間繼電器的觸頭負(fù)載
    發(fā)表于 09-23 15:59

    西井科技成功入選《2024大模型典型示范應(yīng)用案例

    在2024世界人工智能大會(huì)“大模型煥新與產(chǎn)業(yè)賦能”論壇上,中國(guó)信通院華東分院、上海人工智能實(shí)驗(yàn)室及相關(guān)代表企業(yè)聯(lián)合發(fā)布了《2024大模型典型示范應(yīng)用案例》,旨在展現(xiàn)具有先進(jìn)性、引領(lǐng)性
    的頭像 發(fā)表于 08-13 10:38 ?1276次閱讀
    西井科技成功入選《2024大<b class='flag-5'>模型</b>典型示范應(yīng)用案例<b class='flag-5'>集</b>》

    圖像識(shí)別算法的測(cè)試方法有哪些

    和標(biāo)注。 多樣性 :確保數(shù)據(jù)包含多樣化的樣本,以覆蓋算法可能遇到的各種情況。 平衡性 :類(lèi)別之間的樣本數(shù)量應(yīng)該相對(duì)平衡,以避免模型對(duì)某些類(lèi)別的偏見(jiàn)。 性能指標(biāo) : 準(zhǔn)確率(Accuracy) :正確預(yù)測(cè)的樣本數(shù)占總樣本數(shù)的比例
    的頭像 發(fā)表于 07-16 11:06 ?1072次閱讀

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗(yàn)證和測(cè)試

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗(yàn)證和測(cè)試,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要一步。這三者不僅構(gòu)成了模型學(xué)習(xí)與評(píng)估的基礎(chǔ)框架,還直接關(guān)系到模型
    的頭像 發(fā)表于 07-10 15:45 ?6341次閱讀

    人臉識(shí)別模型訓(xùn)練失敗原因有哪些

    人臉識(shí)別模型訓(xùn)練失敗的原因有很多,以下是一些常見(jiàn)的原因及其解決方案: 數(shù)據(jù)質(zhì)量問(wèn)題 數(shù)據(jù)是訓(xùn)練人臉識(shí)別
    的頭像 發(fā)表于 07-04 09:17 ?1244次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是一個(gè)廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動(dòng)態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時(shí),數(shù)據(jù)是不可或缺的組成部分。然而,很多時(shí)候,我們可能需要使用自己的數(shù)據(jù)而不是現(xiàn)成
    的頭像 發(fā)表于 07-02 14:09 ?3304次閱讀
    主站蜘蛛池模板: 2021精品国产综合久久 | 97se亚洲综合| 久久久久久午夜精品 | 国产产一区二区三区久久毛片国语 | 亚洲一区二区三区四区在线观看 | 日韩福利网站 | 久久51 | 福利看片| 午夜黄色福利视频 | 天天玩天天操 | 99久久免费精品国产免费高清 | 欧美日本免费 | 日韩一级片在线免费观看 | 国产毛片久久久久久国产毛片 | 四虎永久在线观看视频精品 | 狠色网 | 色老头成人免费视频天天综合 | 五月婷激情 | 色婷丁香| 午夜毛片在线观看 | 37pao强力打造免费高速高清 | 三级国产在线 | 丁香九月婷婷 | 国产精品免费久久 | 网友偷自拍原创区 | 中文字幕在线观看第一页 | 影视精品网站入口 | 手机看片午夜 | 天天综合天天看夜夜添狠狠玩 | 四虎永久免费在线 | 国产网站黄 | 久久精品乱子伦免费 | 免费视频网站在线观看 | 视频在线观看高清免费大全 | 久久精品国产免费高清 | 色就是色欧美色图 | 天堂在线中文字幕 | 手机看片日本 | 网友自拍区一区二区三区 | 成人在线看片 | 免费看又爽又黄禁片视频1000 |