在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

通過Logit調整的長尾學習

倩倩 ? 來源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-09-05 14:28 ? 次閱讀

1. 論文信息

標題:Long-Tail Learning via Logit Adjustment

作者:Aditya Krishna Menon, Sadeep Jayasumana, Ankit Singh Rawat, Himanshu Jain, Andreas Veit, Sanjiv Kumar (Google Research)

原文鏈接:https://arxiv.org/abs/2007.07314

代碼鏈接:https://github.com/google-research/google-research/tree/master/logit_adjustment

2. 介紹

在傳統的分類和識別任務中,訓練數據的分布往往都受到了人工的均衡,即不同類別的樣本數量無明顯差異,如最有影響力的ImageNet,每種類別的樣本數量就保持在1300張左右。

aece2de2-2cd9-11ed-ba43-dac502259ad0.jpg

在實際的視覺相關任務中,數據都存在如上圖所示的長尾分布,少量類別占據了絕大多少樣本,如圖中Head部分,大量的類別僅有少量的樣本,如圖中Tail部分。解決長尾問題的方案一般分為4種:

重采樣 (Re-sampling):采樣過程中采樣不同的策略,如對tail中的類別樣本進行過采樣,或者對head類別樣本進行欠采樣。

重加權 (Re-weighting):在訓練過程中給與每種樣本不同的權重,對tail類別loss設置更大的權重,這樣有限樣本數量。

新的學習策略 (Learning strategy):有專門為解決少樣本問題涉及的學習方法可以借鑒,如:meta-learning、transfer learning。另外,還可以調整訓練策略,將訓練過程分為兩步:第一步不區分head樣本和tail樣本,對模型正常訓練;第二步,設置小的學習率,對第一步的模型使用各種樣本平衡的策略進行finetune。

其實就筆者喜歡的風格而言,我對重加權這一方向的工作更為喜歡,因為通過各種統計學上的結論,來設計很好的loss改進來解決長尾/不均衡分布問題,我喜歡這類研究的原因是,他們(大部分)實現簡單,往往只需幾行代碼修改下loss,就可以取得非常有競爭力的結果,因為簡單所以很容易運用到一些復雜的任務中。

而從“奧卡姆剃刀”來看,我覺得各種遷移模型的理念雖然非常好,從頭部常見類中學習通用知識,然后遷移到尾部少樣本類別中,但是往往會需要設計復雜的模塊,有增加參數實現過擬合的嫌疑,我認為這其實是把簡單問題復雜化。我覺得從統計方面來設計更加優美,因此本文來介紹一篇我非常喜歡的從統計角度出發的工作。這篇論文來自Google Research,他們提供了一種logit的調整方法來應對長尾分布的問題。由于研究風格更偏向 machine learning, 所以論文風格更偏向統計類。

本文首先總結了對于logit的調整方法:

聚焦于測試階段:對學習完的logit輸出進行處理(post-hoc normalization),根據一些先驗假設進行調整。

聚焦于訓練階段:在學習中調整loss函數,相對平衡數據集來說,調整優化的方向。

aeddeafc-2cd9-11ed-ba43-dac502259ad0.png

如上圖,這兩種方法都有許多較為優秀的工作,但是文中描述了這兩種方法的幾種限制:

weight normalization非常依賴于weight的模長會因為class的data數量稀少而變小,然而這種假設非常依賴于優化器的選擇

直接修改loss進行重加權,也會影響模型的表征學習,從而導致優化過程不穩定,同時模型可能對尾部類過擬合,傷害了模型表征學習能力。

論文的motivation就是克服這些缺點,讓不同類(head and tail classed)之間的logit能有一個相對較大的margin,設以一個consistent的loss,來讓模型的性能更好。

3. 問題設定和過往方法回顧

3.1 Problem Settings

論文先從統計學的角度定義了一下這個problem settings,其實就是訓練一個映射,讓這個scorer的誤分類損失最小:

但是類別不平衡的學習的setting導致P(y)分布是存在高度地skewed,使得許多尾部類別標簽出現的概率很低。在這里,錯誤分類的比例就不是一個合適的metric: 因為模型似乎把所有的尾部類別都分類成頭部類別也更夠取得比較好的效果。所為了解決這個問題,一個自然的選擇是平衡誤差,平均每個類的錯誤率,從而讓測試計算出的metric不是有偏的。

論文總結出了一個比較general的loss形式:

這里 是類別 yy 的權重;是另一個超參, 用來控制 margin 的大小。

3.2Post-hoc weight normalization

由于頭部類別多,容易過擬合,自然會對頭部類別overconfidence,所以我們需要通過一定的映射來調整logit。具體到調整的策略,自然是讓大類置信度低一點,小類置信度高一點。

for , where and . Intuitively, either choice of upweights the contribution of rare labels through weight normalisation. The choice is motivated by the observations that tends to correlate with . Further to the above, one may enforce during training.

這里引用了一些其他做long-tail learning的論文,可以參考以便更好地對這一塊進行理解。

3.3 Loss modification

至于對于loss的修改,就是很直接了在前面加一個權重,對于的取值,自然就是各個工作重點關注和改進的地方。

af02f478-2cd9-11ed-ba43-dac502259ad0.png

論文給予原有的各種方法各種比較全面的總結。

4. 方法

首先進行Post-hoc logit adjustment:

其實等號左邊就是一個根據類別的樣本數進行re-weighting。但是為了在exp的線性變換加上temperature時候不影響排序問題,所以把等號右邊變成上式,通過這種方式放縮不會導致原本的排序出現問題。從而使得重加權仍能夠給尾部類更高的權重。

af2dc766-2cd9-11ed-ba43-dac502259ad0.png

把loss改寫成易于理解的方式就如下:

下面這個更為直接的loss被成為為pairwise margin loss,它可以把 y 與 y' 之間的margin拉大。

然后就是實現結合:

af47e862-2cd9-11ed-ba43-dac502259ad0.png

通過一些特殊的取值和另外的trick,可以實現兩者的結合。

5. 實驗結果

af5f3152-2cd9-11ed-ba43-dac502259ad0.png

這張圖非常有意思,可以看出兩個設計理念非常有效果。

af842f0c-2cd9-11ed-ba43-dac502259ad0.png

afa47d2a-2cd9-11ed-ba43-dac502259ad0.png

可以發現該方法在頭部類和尾部類的性能都有所提升。

6. 結論

摘要:這篇寫得很好的論文重新審視了logit調整的想法,以解決長尾問題。本文首先建立了一個統計框架,并以此為基礎提出了兩種有效實現對數平差的方法。他們通過在合成和自然長尾數據集上使用幾個相關基線對其進行測試,進一步證明了這種方法的潛力。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 線性
    +關注

    關注

    0

    文章

    200

    瀏覽量

    25551
  • 模型
    +關注

    關注

    1

    文章

    3500

    瀏覽量

    50139
  • 數據集
    +關注

    關注

    4

    文章

    1223

    瀏覽量

    25322
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    電源管理芯片U3205A擁有良好的線性調整率和負載調整

    電源管理芯片U3205A擁有良好的線性調整率和負載調整率銀聯寶電源管理芯片U3205A通過實時監測負載狀態,自動調節MOSFET的開關頻率,輕載或空載時?降低頻率?(如待機狀態),減少開關損耗,典型
    的頭像 發表于 04-17 16:26 ?248次閱讀
    電源管理芯片U3205A擁有良好的線性<b class='flag-5'>調整</b>率和負載<b class='flag-5'>調整</b>率

    模擬示波器的波形顯示可以調整哪些參數?

    放大或縮小波形的垂直幅度,使波形在屏幕上顯示得更大或更小。 調整方法:通過旋轉垂直靈敏度旋鈕或輸入數值進行調整。 垂直位置(Vertical Position) 定義:波形在垂直方向上的位置。 作用
    發表于 04-02 14:41

    DLPC3433的gain具體是通過調整什么來實現的?

    我看規格書說是能調整R、G、B顏色通道的gain,這個gain具體是通過調整什么來實現的?是每個顏色通道里面的DMD占空比嗎?
    發表于 02-26 07:48

    如何優化BP神經網絡的學習

    訓練過程中發生震蕩,甚至無法收斂到最優解;而過小的學習率則會使模型收斂速度緩慢,容易陷入局部最優解。因此,正確設置和調整學習率對于訓練高效、準確的神經網絡模型至關重要。 二、學習率優化
    的頭像 發表于 02-12 15:51 ?834次閱讀

    BP神經網絡與深度學習的關系

    ),是一種多層前饋神經網絡,它通過反向傳播算法進行訓練。BP神經網絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網絡權重,目的是最小化網絡的輸出誤差。 二、深度學習
    的頭像 發表于 02-12 15:15 ?775次閱讀

    什么是機器學習通過機器學習方法能解決哪些問題?

    來源:Master編程樹“機器學習”最初的研究動機是讓計算機系統具有人的學習能力以便實現人工智能。因為沒有學習能力的系統很難被認為是具有智能的。目前被廣泛采用的機器學習的定義是“利用經
    的頭像 發表于 11-16 01:07 ?909次閱讀
    什么是機器<b class='flag-5'>學習</b>?<b class='flag-5'>通過</b>機器<b class='flag-5'>學習</b>方法能解決哪些問題?

    tlv320aic3104通過調整增益來控制聲音大小,調整一下就出現一聲“嘣“,如何解決?

    我們使用3104通過調整增益來控制聲音大小。調整一下就出現一聲“嘣“。請問這個該如何解決? 調整的寄存器如下: void VOLUME_TLV320(uint8_t volume
    發表于 10-30 06:06

    什么是交叉調整率?怎么改善?

    生活中多路輸出電源應用廣泛,但是多路輸出電源的交叉調整率是個頭疼的問題。今天,我們就來討論一下交叉調整率的改善之道!
    的頭像 發表于 10-24 11:15 ?2069次閱讀
    什么是交叉<b class='flag-5'>調整</b>率?怎么改善?

    如何調整TAS5729的BQ參數?

    各位工程師,我們公司采用TAS5729功放來驅動我們產品的喇叭,由于音腔的設計以及喇叭本身的頻率響應問題,喇叭在3K~5K范圍內失真比較大,我們準備通過調整TAS5729的Biquad來調整EQ
    發表于 10-15 08:30

    直流電機通過調整什么改變轉速

    直流電機是一種常見的電機類型,廣泛應用于各種工業和民用領域。直流電機的轉速可以通過多種方式進行調整,以滿足不同的應用需求。 直流電機的工作原理 直流電機主要由定子、轉子、換向器和電刷等部分組成。其
    的頭像 發表于 08-23 15:44 ?1286次閱讀

    Linux操作系統運行參數自動調整技術

    Linux操作系統運行參數的自動調整是一個復雜而關鍵的技術,它可以顯著提高系統性能、穩定性和資源利用率。通過使用自適應算法特別是內核態的機器學習框架、性能監控工具和配置管理工具,能夠在動態變化的工作
    的頭像 發表于 08-22 09:53 ?725次閱讀
    Linux操作系統運行參數自動<b class='flag-5'>調整</b>技術

    示波器萬用表功能調整方法

    需求。 一、示波器的功能調整方法 波形顯示調整 示波器的主要功能是顯示電信號的波形,因此波形顯示的清晰度和準確性至關重要。以下是一些常用的波形顯示調整方法: 1.1 波形亮度調整 波形
    的頭像 發表于 08-09 15:02 ?1874次閱讀

    動態調整電源芯片輸出電壓

    這個是前陣子紅外觸摸框上的部分電路圖, 主要功能是通過調整LDO輸出電壓間接控制發射燈的輸出功率。
    的頭像 發表于 07-17 11:44 ?1567次閱讀
    動態<b class='flag-5'>調整</b>電源芯片輸出電壓

    BP神經網絡的學習機制

    BP神經網絡(Backpropagation Neural Network),即反向傳播神經網絡,是一種基于梯度下降算法的多層前饋神經網絡,其學習機制的核心在于通過反向傳播算法
    的頭像 發表于 07-10 15:49 ?1165次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關鍵的過程,它涉及大量的數據、計算資源和精心設計的算法。訓練一個深度學習模型,本質上是通過優化算法調整模型參數,使模型能夠更好地擬合數據,提高預測或分類的準
    的頭像 發表于 07-01 16:13 ?2536次閱讀
    主站蜘蛛池模板: 六月激情 | 免费视频久久看 | 久久久精品波多野结衣 | 国产全黄三级三级 | 日本免费一区二区三区视频 | 久久亚洲综合色 | 精品一区二区国语对白 | 色视频免费观看高清完整 | 亚洲狠狠色丁香婷婷综合 | 三级理论在线播放大全 | 久久精品国产亚洲aa | 亚洲色图狠狠干 | 色天使久久综合给合久久97色 | 中文天堂最新版在线精品 | www激情五月 | 伊人精品网 | 99久久精品费精品国产一区二区 | 黄网在线免费看 | 天天干天天草天天 | 中文字幕在线资源 | 午夜神马| 二区三区在线 | 亚洲婷婷综合网 | 国产一级片免费 | 亚洲三级黄 | 天天爽夜夜爽人人爽免费 | 天堂最新版 | 四虎在线最新永久免费 | 乱好看的的激情伦小说 | 精品卡一卡二 卡四卡视频 精品噜噜噜噜久久久久久久久 | 一区二区手机视频 | aaaaa国产毛片 | 日日久| 性欧美高清久久久久久久 | 五月婷婷丁香色 | 黄色污网站在线观看 | 青草悠悠视频在线观看 | 波多野结衣在线一区 | 久热草在线 | 给我免费播放片黄色 | 人人草人人插 |