91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

EasyDL上線百度超大規(guī)模預(yù)訓(xùn)練模型,模型效果顯著提升

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-08 22:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)領(lǐng)域,有一個名詞正在被越來越地關(guān)注:遷移學(xué)習(xí)。它相比效果表現(xiàn)好的監(jiān)督學(xué)習(xí)來說,可以減去大量的枯燥標注過程,簡單來說就是在大數(shù)據(jù)集訓(xùn)練的預(yù)訓(xùn)練模型上進行小數(shù)據(jù)集的遷移,以獲得對新數(shù)據(jù)較好的識別效果,因其能夠大量節(jié)約新模型開發(fā)的成本,在實際應(yīng)用中被更廣泛地關(guān)注。EasyDL 專業(yè)版在最新上線的版本中,就引入了百度超大規(guī)模視覺預(yù)訓(xùn)練模型,結(jié)合遷移學(xué)習(xí)工具,幫助開發(fā)者使用少量數(shù)據(jù),快速定制高精度 AI 模型。

在訓(xùn)練一個深度學(xué)習(xí)模型時,通常需要大量的數(shù)據(jù),但數(shù)據(jù)的采集、標注等數(shù)據(jù)準備過程會耗費大量的人力、金錢和時間成本。為解決此問題,我們可以使用預(yù)訓(xùn)練模型。以預(yù)訓(xùn)練模型 A 作為起點,在此基礎(chǔ)上進行重新調(diào)優(yōu),利用預(yù)訓(xùn)練模型及它學(xué)習(xí)的知識來提高其執(zhí)行另一項任務(wù) B 的能力,簡單來說就是在大數(shù)據(jù)集訓(xùn)練的預(yù)訓(xùn)練模型上進行小數(shù)據(jù)集的遷移,以獲得對新數(shù)據(jù)較好的識別效果,這就是遷移學(xué)習(xí)(Transfer Learning)。

遷移學(xué)習(xí)作為一種機器學(xué)習(xí)方法,廣泛應(yīng)用于各類深度學(xué)習(xí)任務(wù)中。在具體實現(xiàn)遷移學(xué)習(xí)時,有多種深度網(wǎng)絡(luò)遷移方法,其中的 Fine-tune(微調(diào))是最簡單的一種深度網(wǎng)絡(luò)遷移方法,它主要是將已訓(xùn)練好的模型參數(shù)遷移到新的模型來幫助新模型訓(xùn)練。

針對一個具體的模型開發(fā)任務(wù),我們通常會選擇在公開的大數(shù)據(jù)集上訓(xùn)練收斂、且效果較好的模型,作為預(yù)訓(xùn)練權(quán)重,在此基礎(chǔ)上使用業(yè)務(wù)數(shù)據(jù)對模型進行 Fine-tune。在 Fine-tune 時,默認源域(預(yù)訓(xùn)練模型)、目標域數(shù)據(jù)集(用戶業(yè)務(wù)數(shù)據(jù)集)需要具有較強相關(guān)性,即數(shù)據(jù)同分布,這樣我們才能利用預(yù)訓(xùn)練模型的大量知識儲備,快速高效地訓(xùn)練出針對特定業(yè)務(wù)場景并具有優(yōu)秀效果的模型。

但在實際應(yīng)用場景中,很多用戶會面臨數(shù)據(jù)集與源數(shù)據(jù)集分布不同的問題。比如,預(yù)訓(xùn)練模型的數(shù)據(jù)都是自然風(fēng)景,但用戶的數(shù)據(jù)集都是動漫人物。類似這種源數(shù)據(jù)集和目標數(shù)據(jù)差別較大的問題,在具體應(yīng)用中較易導(dǎo)致負向遷移,具體表現(xiàn)為訓(xùn)練收斂慢,模型效果差等。

因此,一個包含各類場景、覆蓋用戶各類需求的超大規(guī)模數(shù)據(jù)集就十分重要,通過這個包羅萬象的超大規(guī)模數(shù)據(jù)集訓(xùn)練所得的模型,才能夠更好地適應(yīng)來自各行各業(yè)用戶的需求,更好地 Fine-tune 用戶的業(yè)務(wù)數(shù)據(jù)集,幫助用戶在自己的數(shù)據(jù)集上得到效果更好的模型。

百度超大規(guī)模預(yù)訓(xùn)練模型便在此背景下產(chǎn)生,覆蓋自然語言處理和視覺兩大方向。

在自然語言處理方向,百度自研了業(yè)界效果最好的預(yù)訓(xùn)練模型 ERNIE,開創(chuàng)性地將大數(shù)據(jù)預(yù)訓(xùn)練與多源豐富知識相結(jié)合,持續(xù)學(xué)習(xí)海量數(shù)據(jù)中的知識,將機器語義理解水平提升到一個新的高度。ERNIE 在中英文的16個任務(wù)上已經(jīng)超越了業(yè)界最好模型,全面適用于各類 NLP 應(yīng)用場景。目前,EasyDL 專業(yè)版已預(yù)置了領(lǐng)先的預(yù)訓(xùn)練模型 ERNIE2.0,并配套了多種 NLP 經(jīng)典算法網(wǎng)絡(luò),支持了文本分類、短文本匹配和序列標注等典型文本處理任務(wù)。
視覺方向,百度自研超大規(guī)模視覺預(yù)訓(xùn)練模型覆蓋圖像分類與物體檢測兩個方向。圖像分類的預(yù)訓(xùn)練模型,用海量互聯(lián)網(wǎng)數(shù)據(jù),包括10萬+的物體類別,6500萬的超大規(guī)模圖像數(shù)量,進行大規(guī)模訓(xùn)練所得,適應(yīng)于各類圖像分類場景;物體檢測的預(yù)訓(xùn)練模型,用800+的類別,170萬張圖片以及1000萬+物體框的數(shù)據(jù)集,進行大規(guī)模訓(xùn)練所得,適應(yīng)于各類物體檢測應(yīng)用場景。相對于普通使用公開數(shù)據(jù)集訓(xùn)練的預(yù)訓(xùn)練模型,在各類數(shù)據(jù)集上都有不同程度效果提升,模型效果和泛化性都有顯著提升。

  • 以下實驗數(shù)據(jù)集均來自不同行業(yè)

圖像分類

在圖像分類模型中,使用百度超大規(guī)模預(yù)訓(xùn)練模型的 Resnet50_vd 相比普通模型在各類數(shù)據(jù)集上平均提升12.76%,使用百度超大規(guī)模預(yù)訓(xùn)練模型的 Resnet101_vd,相比于普通預(yù)訓(xùn)練模型,平均提升13.03%,使用百度超大規(guī)模預(yù)訓(xùn)練模型的 MobilenetV3_large_1x,相比于普通預(yù)訓(xùn)練模型,平均提升8.04%。

并且,在圖像分類方向,還新增了11個模型,包括:EffcientNetB0_small,EfficientNetB4,MobileNetV3_large_x1_0,ResNet18_vd, ResNeXt101_32x16d_wsl, Res2Net101_vd_26w_4s, SE_ResNet18_vd, Xception71,還有基于百度超大規(guī)模預(yù)訓(xùn)練模型訓(xùn)練出來的 ResNet50_vd,ResNet101_vd 和 MobileNetV3_large_x1_0,其中比較特殊的幾個模型,EffcientNetB0_small 是去掉 SE 模塊的 EffcientNetB0,在保證精度變化不大的同時,大幅提升訓(xùn)練和推理速度,ResNeXt101_32x16d_wsl 是基于超大量圖片的弱監(jiān)督預(yù)訓(xùn)練模型,準確率高,但預(yù)測時間相對增加,Res2Net101_vd_26w_4s 則是在單個殘差塊內(nèi)進一步構(gòu)造了分層的殘差類連接,比 ResNet101 準確度更高。

新增的分類模型的推理時間、效果,以及支持的部署方式如下表所示:

注:以上模型均基于 ImageNet1k 分類數(shù)據(jù)集訓(xùn)練和測試
更多預(yù)置模型,參見 EasyDL 官網(wǎng)
https://ai.baidu.com/ai-doc/E...
更多模型效果,參見 PaddleClas
https://paddleclas.readthedoc...
并且,為了進一步提升圖像分類模型的模型效果,在訓(xùn)練層面,圖像分類新增了 mix_up 和 label_smoothing 功能,可以在單標簽分類任務(wù)中,根據(jù)模型的訓(xùn)練情況選擇開啟或者關(guān)閉。

mix_up 是一種數(shù)據(jù)增強方式,它從訓(xùn)練樣本中隨機抽取了兩個樣本進行簡單的隨機加權(quán)求和,并保存這個權(quán)重,同時樣本的標簽也對應(yīng)地用相同的權(quán)重加權(quán)求和,然后預(yù)測結(jié)果與加權(quán)求和之后的標簽求損失,通過混合不同樣本的特征,能夠減少模型對錯誤標簽的記憶力,增強模型的泛化能力。

Label_smoothing 是一種正則化的方法,增加了類間的距離,減少了類內(nèi)的距離,避免模型對預(yù)測結(jié)果過于 confident 而導(dǎo)致對真實情況的預(yù)測偏移,一定程度上緩解由于 label 不夠 soft 導(dǎo)致過擬合的問題。

物體檢測

在物體檢測模型中,使用百度超大規(guī)模預(yù)訓(xùn)練模型的 YOLOv3_DarkNet 相比普通模型在各類數(shù)據(jù)集上平均提升4.53%,使用百度超大規(guī)模預(yù)訓(xùn)練模型的 Faster_RCNN,相比于普通預(yù)訓(xùn)練模型,平均提升1.39%。

并且,在物體檢測方向,新增了 Cascade_Rcnn_ResNet50_FPN、YOLOv3_ResNet50vd_DCN、YOLOv3_MobileNetv1 網(wǎng)絡(luò),以及基于百度超大規(guī)模預(yù)訓(xùn)練模型訓(xùn)練出來的 YOLOv3_Darknet、Faster_R-CNN_ResNet50_FPN,其中,Cascade_Rcnn_ResNet50_FPN 通過級聯(lián)多個檢測器以及設(shè)置不同 IOU 的重采樣機制,使得檢測器的精度、和定位的準確度進一步提升。

此外,針對用戶的需求,新增兩種 YOLOv3 的變種模型,其中,YOLOv3_MobileNetv1 是將原來的 YOLOv3 骨架網(wǎng)絡(luò)替換為 MobileNetV1,相比 YOLOv3_DarkNet,新模型在 GPU 上的推理速度提升約73%。而 YOLOv3_ResNet50vd_DCN 是將骨架網(wǎng)絡(luò)更換為 ResNet50-VD,相比原生的 DarkNet53 網(wǎng)絡(luò)在速度和精度上都有一定的優(yōu)勢,在保證 GPU 推理速度基本不變的情況下,提升了1%的模型效果,同時,因增加了可形變卷積,對不規(guī)則物體的檢測效果也有一定的正向提升。

各檢測模型的效果,以及支持的部署方式如下表所示:

注:以上模型均基于 COCO17 數(shù)據(jù)集訓(xùn)練和測試
更多預(yù)置模型,參見 EasyDL 官網(wǎng)
https://ai.baidu.com/ai-doc/E...
更多模型效果,參見 PaddleDetection
https://github.com/PaddlePadd...
各模型的推理時間如下表所示:

注:以上模型均基于 coco17 訓(xùn)練所得
更多模型速度詳情,參見 PaddleDetection
https://github.com/PaddlePadd...
百度超大規(guī)模視覺預(yù)訓(xùn)練模型對比公開數(shù)據(jù)集訓(xùn)練的預(yù)訓(xùn)練模型,效果提升明顯,目前這些模型已經(jīng)預(yù)置在 EasyDL 專業(yè)版中正式發(fā)布。EasyDL 專業(yè)版是面向?qū)I(yè)算法工程師群體專門推出的 AI 模型開發(fā)與服務(wù)平臺。支持視覺及自然語言處理兩大技術(shù)方向,可靈活支持腳本調(diào)參及 Notebook 兩類開發(fā)方式,預(yù)置了幾十種經(jīng)典網(wǎng)絡(luò)和百度海量數(shù)據(jù)訓(xùn)練的預(yù)訓(xùn)練模型,模型效果在業(yè)界保持領(lǐng)先,同時支持公有云/私有化/設(shè)備端等靈活的部署方案,開發(fā)效率高、訓(xùn)練速度快,同時設(shè)備端輕量級部署和加速方案使得顯存占用更少,預(yù)測速度更快。

開發(fā)者可以搜索進入 EasyDL 平臺,選擇專業(yè)版,選擇【新建任務(wù)】-【配置任務(wù)】-【選擇預(yù)訓(xùn)練模型】處選擇【百度超大規(guī)模數(shù)據(jù)集 通用分類預(yù)訓(xùn)練模型】

零門檻 AI 開發(fā)平臺 EasyDL,面向 AI 開發(fā)全流程提供靈活易用的一站式平臺方案。包含了 AI 開發(fā)過程中的三大流程:數(shù)據(jù)服務(wù)、訓(xùn)練與開發(fā)、模型部署。

在數(shù)據(jù)服務(wù)上,剛剛上線的 EasyData 智能數(shù)據(jù)服務(wù)平臺覆蓋了數(shù)據(jù)采集、管理、清洗、標注、安全,并支持接入 EasyDL 進行訓(xùn)練,在模型訓(xùn)練部署之后,在云服務(wù)授權(quán)的前提下完成數(shù)據(jù)回流,針對性地進行難例挖掘,獲得更有助于模型效果提升的高質(zhì)量數(shù)據(jù)。

EasyData 是業(yè)內(nèi)首家推出了軟硬一體、端云協(xié)同自動數(shù)據(jù)采集方案的平臺,有離線視頻數(shù)據(jù)采集的用戶,可以下載 EasyData 的數(shù)據(jù)采集 SDK,通過定時拍照、視頻抽幀等方式,實時統(tǒng)計到云端進行處理。

在訓(xùn)練與開發(fā)上,除了剛剛提到的大規(guī)模預(yù)訓(xùn)練模型來提升模型性能,EasyDL 還采用了 AutoDL 自動搜索最優(yōu)網(wǎng)絡(luò)及超參數(shù),以及自動數(shù)據(jù)增強、自動超參搜索來增加數(shù)據(jù)量和多樣性、分布式訓(xùn)練加速等豐富的訓(xùn)練機制提升模型的訓(xùn)練速度。

在模型部署上,EasyDL 提供端云協(xié)同的多種靈活部署方式,包括公有云 API、設(shè)備端 SDK、本地服務(wù)器部署、軟硬一體產(chǎn)品。值得關(guān)注的是,在 EasyDL 軟硬一體產(chǎn)品矩陣方案中,提供了六款軟硬一體方案,覆蓋超高性能,高性能和低成本小功耗三種不同形態(tài),滿足開發(fā)者的各類業(yè)務(wù)需求,已經(jīng)在幾十個行業(yè)上百個場景中落地應(yīng)用。

點擊鏈接進入 EasyDL 專業(yè)版,感受預(yù)訓(xùn)練模型的強大效果吧!

審核編輯:符乾江

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279947
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249521
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    寧暢與與百度文心大模型展開深度技術(shù)合作

    近日,百度正式開源文心大模型4.5系列模型。作為文心開源合作伙伴,寧暢在模型開源首日即實現(xiàn)即刻部署,做到“開源即接入、發(fā)布即可用”。據(jù)悉,文心4.5開源系列全部基于飛槳深度學(xué)習(xí)框架進行
    的頭像 發(fā)表于 07-07 16:26 ?212次閱讀

    百度文心大模型X1 Turbo獲得信通院當前大模型最高評級證書

    ,16項達5分,綜合評級獲當前最高級“4+級”, 成為國內(nèi)首款通過該測評的大模型 。文心X1 Turbo邏輯推理、代碼推理、推理效果優(yōu)化等技術(shù)能力及工具支持、安全可靠等應(yīng)用能力均獲
    的頭像 發(fā)表于 05-21 18:19 ?677次閱讀
    <b class='flag-5'>百度</b>文心大<b class='flag-5'>模型</b>X1 Turbo獲得信通院當前大<b class='flag-5'>模型</b>最高評級證書

    AI原生架構(gòu)升級:RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級參數(shù)模型的崛起,AI訓(xùn)練對算力的需求呈現(xiàn)指數(shù)級增長。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對分布式訓(xùn)練、高并發(fā)計算和顯存優(yōu)化等場景時逐漸顯露瓶頸。而RAKsmart為超大規(guī)模
    的頭像 發(fā)表于 04-24 09:27 ?298次閱讀

    百度發(fā)布文心大模型4.5和文心大模型X1

    文心大模型4.5是百度自主研發(fā)的新一代原生多模態(tài)基礎(chǔ)大模型,通過多個模態(tài)聯(lián)合建模實現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解能力優(yōu)秀;具備更精進的語言能力,理解、生成、邏輯、記憶能力全面提升,去幻覺、邏輯
    的頭像 發(fā)表于 03-18 16:29 ?477次閱讀

    百度文心大模型將升級并開源

    百度近日宣布,其文心大模型系列將迎來新版本升級,計劃在未來數(shù)月內(nèi)逐步推出文心大模型4.5系列。這一消息無疑為AI領(lǐng)域注入了新的活力。 據(jù)悉,百度文心大
    的頭像 發(fā)表于 02-14 14:25 ?449次閱讀

    百度文心大模型4月1日起全面免費開放

    列最新的模型功能。 百度表示,文心大模型的此次升級不僅帶來了更加豐富的功能,還致力于提升用戶體驗。與此同時,百度還透露,文心一言將同步
    的頭像 發(fā)表于 02-14 09:19 ?469次閱讀

    百度智能云發(fā)布昆侖芯三代萬卡集群及DeepSeek-R1/V3上線

    支持,同時有效提升百度和客戶的資源整體利用率,降低大模型訓(xùn)練成本,推動了模型降本的趨勢,為整個行業(yè)提供了新的思路和方向。 02
    的頭像 發(fā)表于 02-11 10:58 ?679次閱讀

    百度智能云四款大模型應(yīng)用接入DeepSeek

    近日,百度智能云旗下四款重量級大模型應(yīng)用產(chǎn)品——客悅、曦靈、一見、甄知,正式迎來了全新升級,接入了先進的DeepSeek模型。這一重要更新,標志著百度智能云在為企業(yè)智能化轉(zhuǎn)型提供更強動
    的頭像 發(fā)表于 02-10 18:00 ?819次閱讀

    百度智能云四款大模型應(yīng)用完成DeepSeek適配

    百度智能云在AI大模型應(yīng)用方面取得了新的進展。近日,其旗下的客悅、曦靈、一見、甄知四款大模型應(yīng)用產(chǎn)品已正式上線接入DeepSeek模型的新版
    的頭像 發(fā)表于 02-10 10:47 ?480次閱讀

    百度云與阿里云上線DeepSeek模型部署服務(wù)

    近日,百度智能云和阿里云相繼宣布上線DeepSeek-R1和DeepSeek-V3模型的部署服務(wù),為開發(fā)者和企業(yè)用戶提供了更加高效便捷的AI服務(wù)體驗。 百度智能云方面,DeepSeek
    的頭像 發(fā)表于 02-05 15:40 ?870次閱讀

    清華與百度合作共建生態(tài)環(huán)境預(yù)訓(xùn)練模型

    訓(xùn)練模型。這一合作基于清華大學(xué)在環(huán)境科學(xué)領(lǐng)域的深厚研究基礎(chǔ)和知識積累,以及百度在人工智能技術(shù)方面的顯著優(yōu)勢。雙方將強強聯(lián)合,致力于將先進的人工智能技術(shù)應(yīng)用于生態(tài)環(huán)境保護領(lǐng)域,為可持續(xù)
    的頭像 發(fā)表于 01-17 10:04 ?523次閱讀

    清華與百度攜手共建生態(tài)環(huán)境預(yù)訓(xùn)練模型

    近日,在“中國環(huán)境科學(xué)學(xué)會生態(tài)環(huán)境人工智能專委會成立大會暨學(xué)術(shù)論壇”上,清華大學(xué)環(huán)境學(xué)院的徐明教授宣布了一項重要戰(zhàn)略合作。清華大學(xué)將與百度攜手,共同打造生態(tài)環(huán)境垂直領(lǐng)域的預(yù)訓(xùn)練模型
    的頭像 發(fā)表于 01-16 11:07 ?523次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    微調(diào):通過在預(yù)訓(xùn)練模型中插入適配器模塊來適應(yīng)特定任務(wù),既保留了原始模型的性能,又能快速適應(yīng)新任務(wù)。Prefix-Tuning:通過在輸入序列的前面添加特定前綴來微調(diào)
    發(fā)表于 01-14 16:51

    一文說清楚什么是AI大模型

    目前,大模型(特別是在2023年及之后的語境中)通常特指大語言模型(LLM, Large Language Model),但其范圍也涵蓋其他領(lǐng)域的超大規(guī)模深度學(xué)習(xí)模型,例如圖像生成
    的頭像 發(fā)表于 01-02 09:53 ?1723次閱讀
    一文說清楚什么是AI大<b class='flag-5'>模型</b>

    百度文心大模型日均調(diào)用量超15億

    近日,百度在上海世博中心舉辦了主題為“應(yīng)用來了”的百度世界2024大會。會上,百度董事長李彥宏分享了關(guān)于大模型行業(yè)的最新動態(tài)和百度文心大
    的頭像 發(fā)表于 11-12 15:28 ?706次閱讀
    主站蜘蛛池模板: 免费看片免费播放 | 国产经典三级 | 日日噜噜噜噜人人爽亚洲精品 | 性free3d | 日韩一级在线观看 | 福利一级片 | 直接在线观看的三级网址 | 欧美a在线 | 国产精品青草久久 | 国产综合免费视频 | 男人的j桶女人的j视频 | 久久综合色播 | 久久人人澡| 国内久久精品视频 | 四虎影视永久在线观看 | 手机看片久久青草福利盒子 | 亚洲一区二区三区影院 | 成人精品一区二区不卡视频 | 久久久久九九精品影院 | 天天插天天爽 | 在线视频亚洲欧美 | 不卡免费在线视频 | 久草资源网站 | 高h乱肉辣文辣书阁 | 性色xxx| 欧美一级欧美三级在线观看 | 精品国内一区二区三区免费视频 | 欧美精品色精品一区二区三区 | 天堂在线最新版在线www | 国产精品一区二区三区免费视频 | 你懂的欧美 | 免费大秀视频在线播放 | 性欧美乱又伦 | www色视频| 清冷双性被cao的合不拢腿 | 射在老师的里面真爽 | 久久人视频 | 日本黄色免费看 | 在线视频观看一区 | 免费看黄的视频网站 | 午夜视频在线观看免费视频 |