1. 論文信息
2. 介紹
在傳統(tǒng)的分類和識別任務(wù)中,訓(xùn)練數(shù)據(jù)的分布往往都受到了人工的均衡,即不同類別的樣本數(shù)量無明顯差異,如最有影響力的ImageNet,每種類別的樣本數(shù)量就保持在1300張左右。
在實(shí)際的視覺相關(guān)任務(wù)中,數(shù)據(jù)都存在如上圖所示的長尾分布,少量類別占據(jù)了絕大多少樣本,如圖中Head部分,大量的類別僅有少量的樣本,如圖中Tail部分。解決長尾問題的方案一般分為4種:
重采樣 (Re-sampling):采樣過程中采樣不同的策略,如對tail中的類別樣本進(jìn)行過采樣,或者對head類別樣本進(jìn)行欠采樣。
重加權(quán) (Re-weighting):在訓(xùn)練過程中給與每種樣本不同的權(quán)重,對tail類別loss設(shè)置更大的權(quán)重,這樣有限樣本數(shù)量。
新的學(xué)習(xí)策略 (Learning strategy):有專門為解決少樣本問題涉及的學(xué)習(xí)方法可以借鑒,如:meta-learning、transfer learning。另外,還可以調(diào)整訓(xùn)練策略,將訓(xùn)練過程分為兩步:第一步不區(qū)分head樣本和tail樣本,對模型正常訓(xùn)練;第二步,設(shè)置小的學(xué)習(xí)率,對第一步的模型使用各種樣本平衡的策略進(jìn)行finetune。
其實(shí)就筆者喜歡的風(fēng)格而言,我對重加權(quán)這一方向的工作更為喜歡,因?yàn)橥ㄟ^各種統(tǒng)計(jì)學(xué)上的結(jié)論,來設(shè)計(jì)很好的loss改進(jìn)來解決長尾/不均衡分布問題,我喜歡這類研究的原因是,他們(大部分)實(shí)現(xiàn)簡單,往往只需幾行代碼修改下loss,就可以取得非常有競爭力的結(jié)果,因?yàn)楹唵嗡院苋菀走\(yùn)用到一些復(fù)雜的任務(wù)中。
而從“奧卡姆剃刀”來看,我覺得各種遷移模型的理念雖然非常好,從頭部常見類中學(xué)習(xí)通用知識,然后遷移到尾部少樣本類別中,但是往往會需要設(shè)計(jì)復(fù)雜的模塊,有增加參數(shù)實(shí)現(xiàn)過擬合的嫌疑,我認(rèn)為這其實(shí)是把簡單問題復(fù)雜化。我覺得從統(tǒng)計(jì)方面來設(shè)計(jì)更加優(yōu)美,因此本文來介紹一篇我非常喜歡的從統(tǒng)計(jì)角度出發(fā)的工作。這篇論文來自Google Research,他們提供了一種logit的調(diào)整方法來應(yīng)對長尾分布的問題。由于研究風(fēng)格更偏向 machine learning, 所以論文風(fēng)格更偏向統(tǒng)計(jì)類。
本文首先總結(jié)了對于logit的調(diào)整方法:
聚焦于測試階段:對學(xué)習(xí)完的logit輸出進(jìn)行處理(post-hoc normalization),根據(jù)一些先驗(yàn)假設(shè)進(jìn)行調(diào)整。
聚焦于訓(xùn)練階段:在學(xué)習(xí)中調(diào)整loss函數(shù),相對平衡數(shù)據(jù)集來說,調(diào)整優(yōu)化的方向。
如上圖,這兩種方法都有許多較為優(yōu)秀的工作,但是文中描述了這兩種方法的幾種限制:
weight normalization非常依賴于weight的模長會因?yàn)閏lass的data數(shù)量稀少而變小,然而這種假設(shè)非常依賴于優(yōu)化器的選擇
直接修改loss進(jìn)行重加權(quán),也會影響模型的表征學(xué)習(xí),從而導(dǎo)致優(yōu)化過程不穩(wěn)定,同時(shí)模型可能對尾部類過擬合,傷害了模型表征學(xué)習(xí)能力。
論文的motivation就是克服這些缺點(diǎn),讓不同類(head and tail classed)之間的logit能有一個(gè)相對較大的margin,設(shè)以一個(gè)consistent的loss,來讓模型的性能更好。
3. 問題設(shè)定和過往方法回顧
3.1 Problem Settings
論文先從統(tǒng)計(jì)學(xué)的角度定義了一下這個(gè)problem settings,其實(shí)就是訓(xùn)練一個(gè)映射,讓這個(gè)scorer的誤分類損失最小:
但是類別不平衡的學(xué)習(xí)的setting導(dǎo)致P(y)分布是存在高度地skewed,使得許多尾部類別標(biāo)簽出現(xiàn)的概率很低。在這里,錯誤分類的比例就不是一個(gè)合適的metric: 因?yàn)槟P退坪醢阉械奈膊款悇e都分類成頭部類別也更夠取得比較好的效果。所為了解決這個(gè)問題,一個(gè)自然的選擇是平衡誤差,平均每個(gè)類的錯誤率,從而讓測試計(jì)算出的metric不是有偏的。
論文總結(jié)出了一個(gè)比較general的loss形式:
這里 是類別 yy 的權(quán)重;是另一個(gè)超參, 用來控制 margin 的大小。
3.2 Post-hoc weight normalization
由于頭部類別多,容易過擬合,自然會對頭部類別overconfidence,所以我們需要通過一定的映射來調(diào)整logit。具體到調(diào)整的策略,自然是讓大類置信度低一點(diǎn),小類置信度高一點(diǎn)。
for , where and . Intuitively, either choice of upweights the contribution of rare labels through weight normalisation. The choice is motivated by the observations that tends to correlate with . Further to the above, one may enforce during training.
這里引用了一些其他做long-tail learning的論文,可以參考以便更好地對這一塊進(jìn)行理解。
3.3 Loss modification
至于對于loss的修改,就是很直接了在前面加一個(gè)權(quán)重,對于的取值,自然就是各個(gè)工作重點(diǎn)關(guān)注和改進(jìn)的地方。
論文給予原有的各種方法各種比較全面的總結(jié)。
4. 方法
首先進(jìn)行Post-hoc logit adjustment:
其實(shí)等號左邊就是一個(gè)根據(jù)類別的樣本數(shù)進(jìn)行re-weighting。但是為了在exp的線性變換加上temperature時(shí)候不影響排序問題,所以把等號右邊變成上式,通過這種方式放縮不會導(dǎo)致原本的排序出現(xiàn)問題。從而使得重加權(quán)仍能夠給尾部類更高的權(quán)重。
把loss改寫成易于理解的方式就如下:
下面這個(gè)更為直接的loss被成為為pairwise margin loss,它可以把 y 與 y' 之間的margin拉大。
然后就是實(shí)現(xiàn)結(jié)合:
通過一些特殊的取值和另外的trick,可以實(shí)現(xiàn)兩者的結(jié)合。
5. 實(shí)驗(yàn)結(jié)果
這張圖非常有意思,可以看出兩個(gè)設(shè)計(jì)理念非常有效果。
可以發(fā)現(xiàn)該方法在頭部類和尾部類的性能都有所提升。
6. 結(jié)論
摘要:這篇寫得很好的論文重新審視了logit調(diào)整的想法,以解決長尾問題。本文首先建立了一個(gè)統(tǒng)計(jì)框架,并以此為基礎(chǔ)提出了兩種有效實(shí)現(xiàn)對數(shù)平差的方法。他們通過在合成和自然長尾數(shù)據(jù)集上使用幾個(gè)相關(guān)基線對其進(jìn)行測試,進(jìn)一步證明了這種方法的潛力。
審核編輯:劉清
-
映射
+關(guān)注
關(guān)注
0文章
47瀏覽量
15867 -
雙線性變換
+關(guān)注
關(guān)注
0文章
2瀏覽量
5574
原文標(biāo)題:Google提出面向長尾分布的logit的調(diào)整新方法
文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
用ADS1258做了一塊采集卡,請問有比較簡單的測試方法來測試我的采集卡的性能和精度嗎?
一種降低VIO/VSLAM系統(tǒng)漂移的新方法
![<b class='flag-5'>一種</b>降低VIO/VSLAM系統(tǒng)漂移的新<b class='flag-5'>方法</b>](https://file1.elecfans.com/web3/M00/02/32/wKgZO2dbqBOAdkLrAABgnDOmV0Y836.png)
一種創(chuàng)新的動態(tài)軌跡預(yù)測方法
![<b class='flag-5'>一種</b>創(chuàng)新的動態(tài)軌跡預(yù)測<b class='flag-5'>方法</b>](https://file1.elecfans.com/web2/M00/0B/46/wKgaomcfMJmAXFYrAAEzgGcXUbU308.jpg)
一種基于光強(qiáng)度相關(guān)反饋的波前整形方法
![<b class='flag-5'>一種</b>基于光強(qiáng)度相關(guān)反饋的波前整形<b class='flag-5'>方法</b>](https://file1.elecfans.com/web2/M00/0B/3D/wKgaomcd-maAR2liAAAIzDC2aQU423.jpg)
一種完全分布式的點(diǎn)線協(xié)同視覺慣性導(dǎo)航系統(tǒng)
![<b class='flag-5'>一種</b>完全<b class='flag-5'>分布</b>式的點(diǎn)線協(xié)同視覺慣性導(dǎo)航系統(tǒng)](https://file1.elecfans.com/web2/M00/08/BD/wKgZomb6SSCAIYJfAAUtSR_Z5EI958.jpg)
一種利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法
![<b class='flag-5'>一種</b>利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包<b class='flag-5'>方法</b>](https://file.elecfans.com/web2/M00/40/03/pYYBAGJrSWqAb-nSAAAXmKtCFeo833.jpg)
THS4551是否可以通過在Vocm引腳處接入電阻調(diào)整分壓比例的方法來配置輸出共模電壓?
一種無透鏡成像的新方法
![<b class='flag-5'>一種</b>無透鏡成像的新<b class='flag-5'>方法</b>](https://file1.elecfans.com//web2/M00/FD/50/wKgZomaZlSKAXJd7AAD91lO42tY599.jpg)
評論