在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型集成是一種提升模型能力的常用方法

新機器視覺 ? 來源:AI公園 ? 作者:AI公園 ? 2021-01-27 11:31 ? 次閱讀

導讀

模型集成是一種提升模型能力的常用方法,但通常也會帶來推理時間的增加,在物體檢測上效果如何,可以看看。

8c5baf2e-6042-11eb-8b86-12bb97331649.png

介紹

集成機器學習模型是一種常見的提升模型能力的方式,并已在多個場景中使用,因為它們結(jié)合了多個模型的決策,以提高整體性能,但當涉及到基于DNN(深度神經(jīng)網(wǎng)絡)的目標檢測模型時,它并不僅僅是合并結(jié)果那么簡單。

集成的需求

為了在任何模型中獲得良好的結(jié)果,都需要滿足某些標準(數(shù)據(jù)、超參數(shù))。但在真實場景中,你可能會得到糟糕的訓練數(shù)據(jù),或者很難找到合適的超參數(shù)。在這些情況下,綜合多個性能較差的模型可以幫助你獲得所需的結(jié)果。在某種意義上,集成學習可以被認為是一種通過執(zhí)行大量額外計算來彌補學習算法不足的方法。另一方面,另一種選擇是在一個非集成系統(tǒng)上做更多的學習。對于計算、存儲或通信資源的相同增加,集成系統(tǒng)使用兩種或兩種以上的方法可能會比使用單一方法增加資源的方法更有效地提高整體精度。

看起來挺好,有沒有缺點呢?

更難調(diào)試或理解預測,因為預測框是根據(jù)多個模型繪制的。

推理時間根據(jù)模型和使用的模型數(shù)量而增加。

嘗試不同的模型以獲得合適的模型集合是一件耗時的事情。

不同的模型集成

OR方法:如果一個框是由至少一個模型生成的,就會考慮它。

AND方法:如果所有模型產(chǎn)生相同的框,則認為是一個框(如果IOU >0.5)。

一致性方法:如果大多數(shù)模型產(chǎn)生相同的框,則認為是一個框,即如果有m個模型,(m/2 +1)個模型產(chǎn)生相同的框,則認為這個框有效。

加權(quán)融合:這是一種替代NMS的新方法,并指出了其不足之處。

8f114b52-6042-11eb-8b86-12bb97331649.png

不同的集成方法

在上面的例子中,OR方法的預測得到了所有需要的對象框,但也得到了一個假陽性結(jié)果,一致性的方法漏掉了馬,AND方法同時漏掉了馬和狗。

驗證

為了計算不同的集成方法,我們將跟蹤以下參數(shù)

True positive:預測框與gt匹配

False Positives:預測框是錯誤的

False Negatives:沒有預測,但是存在gt。

Precision:度量你的預測有多準確。也就是說,你的預測正確的百分比[TP/ (TP + FP)]

Recall:度量gt被預測的百分比[TP/ (TP + FN)]

Average Precision:precision-recall圖的曲線下面積

使用的模型

為了理解集成是如何起作用的,我們提供了用于實驗的獨立模型的結(jié)果。

1. YoloV3:

903377bc-6042-11eb-8b86-12bb97331649.png

2. Faster R-CNN — ResNeXt 101 [X101-FPN]:

90fec3a4-6042-11eb-8b86-12bb97331649.png

集成實驗

1. OR — [YoloV3, X101-FPN]

91b45714-6042-11eb-8b86-12bb97331649.png

如果你仔細觀察,F(xiàn)Ps的數(shù)量增加了,這反過來降低了精度。與此同時,TPs數(shù)量的增加反過來又增加了召回。這是使用OR方法時可以觀察到的一般趨勢。

2. AND — [YoloV3, X101-FPN]

91f8a054-6042-11eb-8b86-12bb97331649.png

與我們使用OR方法觀察到的情況相反,在AND方法中,我們最終獲得了較高的精度和較低的召回率,因為幾乎所有的假陽性都被刪除了,因為YoloV3和X101的大多數(shù)FPs是不同的。

檢測框加權(quán)融合

在NMS方法中,如果框的IoU大于某個閾值,則認為框?qū)儆趩蝹€物體。因此,框的過濾過程取決于這個單一IoU閾值的選擇,這影響了模型的性能。然而,設置這個閾值很棘手:如果有多個物體并排存在,那么其中一個就會被刪除。NMS丟棄了冗余框,因此不能有效地從不同的模型中產(chǎn)生平均的局部預測。

9281237a-6042-11eb-8b86-12bb97331649.png

NMS和WBF之間的主要區(qū)別是,WBF利用所有的框,而不是丟棄它們。在上面的例子中,紅框是ground truth,藍框是多個模型做出的預測。請注意,NMS是如何刪除冗余框的,但WBF通過考慮所有預測框創(chuàng)建了一個全新的框(融合框)。

3. Weighted Boxes Fusion — [Yolov3, X101-FPN]

92b348f0-6042-11eb-8b86-12bb97331649.png

YoloV3和X101-FPN的權(quán)重比分別為2:1。我們也試著增加有利于X101-FPN的比重(因為它的性能更好),但在性能上沒有看到任何顯著的差異。從我們讀過的加權(quán)融合論文中,作者注意到了AP的增加,但如你所見,WBF YoloV3和X101-FPN并不比OR方法好很多。我們注意到的是,大部分的實驗涉及至少3個或更多模型。

4. Weighted Boxes Fusion — [Yolov3, X101, R101, R50]

93703e10-6042-11eb-8b86-12bb97331649.png

在最后的實驗中,我們使用了YoloV3以及我們在Detectron2中訓練的3個模型[ResNeXt101-FPN, ResNet101-FPN, ResNet50-FPN]。顯然,召回率有一個跳躍(約為傳統(tǒng)方法的0.3),但AP的跳躍并不大。另外,需要注意的是,當你向WF方法添加更多模型時,誤報的數(shù)量會激增。

總結(jié)

當使用相互補充的模型時,集成是提高性能的一種很好的方法,但它也會以速度為代價來完成推理。根據(jù)需求,可以決定有多少個模型,采用哪種方法,等等。但從我們進行的實驗來看,性能提升的數(shù)量似乎與一起運行這些模型所需的資源和推斷時間不成比例。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4785

    瀏覽量

    101273
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3372

    瀏覽量

    49299
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8453

    瀏覽量

    133152

原文標題:目標檢測多模型集成方法總結(jié)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術(shù)解讀

    理和理解這些數(shù)據(jù)。在自然語言處理中,Embedding常用于將文本數(shù)據(jù)中的單詞、句子或文檔映射為固定長度的實數(shù)向量,這些向量包含了豐富的語義信息。RAG技術(shù)是一種結(jié)合信息檢索與文本生成能力的技術(shù),它通過
    發(fā)表于 01-17 19:53

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    ,減少了計算成本。LoRA(Low-Rank Adaptation):一種基于低秩分解的微調(diào)方法,通過分解模型參數(shù)矩陣為低秩矩陣來減少參數(shù)更新的數(shù)量,提高訓練效率。PET(Prompt-based
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應用大模型

    多個因素以確保所選模型能夠滿足企業(yè)的具體需求和目標。首先,企業(yè)需要明確自己的客服需求和目標。例如,是否需要24小時在線客服服務?是否需要處理復雜問題的能力?是否需要個性化服務?明確這些需求有助于企業(yè)更好
    發(fā)表于 12-17 16:53

    rup是一種什么模型

    RUP(Rational Unified Process,統(tǒng)建模語言)是一種軟件開發(fā)過程模型,它是一種迭代和增量的軟件開發(fā)方法。RUP是由
    的頭像 發(fā)表于 07-09 10:13 ?1424次閱讀

    模型單卡的正確使用步驟

    、注意事項等方面進行介紹,以幫助用戶更好地掌握大模型單卡的使用技巧。 第部分:大模型單卡概述 1.1 大模型單卡的定義 大模型單卡是
    的頭像 發(fā)表于 07-05 14:32 ?768次閱讀

    人工神經(jīng)網(wǎng)絡模型一種什么模型

    人工神經(jīng)網(wǎng)絡(Artificial Neural Networks,簡稱ANNs)是一種受生物神經(jīng)網(wǎng)絡啟發(fā)而產(chǎn)生的數(shù)學模型,用于模擬人腦處理信息的方式。它由大量的節(jié)點(或稱為神經(jīng)元)相互連接而成
    的頭像 發(fā)表于 07-04 16:57 ?1078次閱讀

    神經(jīng)網(wǎng)絡模型建完了怎么用

    : 1.1 交叉驗證 交叉驗證是一種常用的評估方法,它將數(shù)據(jù)集分成若干個子集,然后使用其中個子集作為測試集,其余子集作為訓練集。通過這種方式,可以評估
    的頭像 發(fā)表于 07-02 11:23 ?718次閱讀

    【大規(guī)模語言模型:從理論到實踐】- 每日進步點點

    ,特別是在NLP和大模型領(lǐng)域中被廣泛使用。 RMS Normalization(RMSNorm) 原理:為了提升LayerNorm的訓練速度而提出的一種
    發(fā)表于 05-31 19:54

    大語言模型:原理與工程時間+小白初識大語言模型

    開拓深度學習的思路。對于新涌現(xiàn)的大語言模型能力,主要是表現(xiàn)在學習能力提升、語言理解和生成能力、創(chuàng)新和探索的
    發(fā)表于 05-12 23:57

    一種利用光電容積描記(PPG)信號和深度學習模型對高血壓分類的新方法

    [22]。就像平均池化樣,最大池化是另一種用于減小特征圖大小的常用方法。它通過僅取每個區(qū)域的最大值來獲得最重要的特征。在機器學習中,池化方法
    發(fā)表于 05-11 20:01

    【大語言模型:原理與工程實踐】大語言模型的應用

    丹尼爾·卡尼曼在《思考,快與慢》中提出了著名的“系統(tǒng)1與系統(tǒng)2”理論。該理論指出,人類大腦的決策系統(tǒng)存在兩模式:一種是快速的、感性的系統(tǒng)1,它幫助我們處理簡單的決策;另一種是緩慢的、理性的系統(tǒng)2
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    安全性的評測則關(guān)注模型在強化學習階段的表現(xiàn)。行業(yè)模型的評測則針對特定行業(yè)的能力,如金融和法律等領(lǐng)域。整體能力的評測從宏觀角度評估模型作為
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    對話以及內(nèi)容豐富的網(wǎng)頁數(shù)據(jù)等。來自不同領(lǐng)域的數(shù)據(jù)則蘊含豐富的語義知識,如編程、科學、金融等,這有助于模型培養(yǎng)更全面的通用能力。常見來源如下: 大數(shù)據(jù)模型的數(shù)據(jù)預處理是數(shù)據(jù)分析流程中至關(guān)重要的
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    模型仍以Transformer為基礎(chǔ)進行訓練。Transformer是一種基于自注意力機制的編碼器-解碼器結(jié)構(gòu),其核心由編碼器和解碼器組成,每個部分均由多個相同層堆疊而成。自注意力機制使
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    學習能力。這些模型以生成能力強和靈活性強為特點,逐漸演變成一種通用計算平臺。其參數(shù)多樣性、生成能力和涌現(xiàn)性使其不僅在自然語言處理領(lǐng)域表現(xiàn)出色
    發(fā)表于 05-04 23:55
    主站蜘蛛池模板: 久久国产99 | 国产伦一区二区三区免费 | 黄色欧美视频 | 韩日中文字幕 | 一级一级特黄女人精品毛片 | 免费看国产一级特黄aa大片 | 男男互攻h啪肉np文厉世 | 四虎国产精品高清在线观看 | 美女一级一级毛片 | 日产精品卡二卡三卡四卡乱码视频 | 国产成人精品曰本亚洲 | 一级片免费在线播放 | 天堂网www在线观看 天堂网www在线资源中文 | 成人看的一级毛片 | 久久久久久噜噜噜久久久精品 | 欧美不卡在线视频 | 亚洲一区二区视频在线观看 | 性生交酡| 久久久免费视频观看 | 久久综合久色欧美婷婷 | 美女视频永久黄网站免费观看国产 | 亚洲免费成人 | 欧美一级高清片在线 | 久久青草国产免费观看 | а中文在线天堂 | 日本一本在线视频 | 色爽爽爽爽爽爽爽爽 | 日韩性插| 欧美一区二区三区高清视频 | 免费网站你懂得 | 在线色资源 | 男女视频免费观看 | 可以免费看黄色的网站 | 亚欧免费视频 | 久色乳综合思思在线视频 | 在线观看深夜观看网站免费 | 国外精品视频在线观看免费 | 天天拍夜夜添久久精品中文 | 精品色图 | 特黄免费| 亚洲成人在线电影 |