91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用RAPIDS機器學習實現Transformer的微調

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-20 10:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來, transformers 已成為一種強大的深度神經網絡體系結構,已被證明在許多應用領域,如 自然語言處理 ( NLP )和 computer vision ,都超過了最先進的水平。

這篇文章揭示了在微調變壓器時,如何以最快的訓練時間獲得最大的精度。我們展示了 RAPIDS Machine Learning 庫中的 cuML 支持向量機( SVM )算法如何顯著加快這一過程。 GPU 上的 CuML SVM 比基于 CPU 的實現快 500 倍。 這種方法使用支持向量機磁頭,而不是傳統的 多層感知器( MLP )頭 ,因此可以精確輕松地進行微調。

什么是微調?為什么需要微調?

transformer 是一個 deep learning 模型,由許多多頭、自我關注和前饋完全連接的層組成。它主要用于序列到序列任務,包括 NLP 任務,如機器翻譯和問答,以及計算機視覺任務,如目標檢測等。

從頭開始訓練 transformer 是一個計算密集型過程,通常需要幾天甚至幾周的時間。在實踐中,微調是將預訓練的變壓器應用于新任務的最有效方法,從而減少培訓時間。

用于微調變壓器的 MLP 磁頭

如圖 1 所示,變壓器有兩個不同的組件:

主干,包含多個自我注意塊和前饋層。

頭部,對分類或回歸任務進行最終預測。

在微調過程中, transformer 的主干網絡被凍結,而只有輕型頭部模塊接受新任務的培訓。 head 模塊最常見的選擇是 multi-layer perceptron ( MLP ),用于分類和回歸任務。

pYYBAGJfb-iAGlrbAAEiRFk8VSQ882.png

圖 1 。以 cuML-SVM 為磁頭加速變壓器的微調

事實證明,實現和調整 MLP 可能比看起來要困難得多。為什么?

有多個超參數需要調整: 層數、輟率、學習率、正則化、優化器類型等。選擇要調整的超參數取決于您試圖解決的問題。例如,輟 和 batchnorm 等標準技術可能會導致 回歸問題的性能退化 。

必須采取更多措施防止過度安裝。 變壓器的輸出通常是一個長的嵌入向量,長度從數百到數千不等。當訓練數據大小不夠大時,過度擬合很常見。

執行時間方面的性能通常不會得到優化。 用戶必須為數據處理和培訓編寫樣板代碼。批量生成和從 CPU 到 GPU 的數據移動也可能成為性能瓶頸。

SVM 磁頭用于變壓器微調的優勢

支持向量機 (支持向量機)是最受歡迎的監督學習方法之一,當存在有意義的預測性特征時,支持向量機是最有效的。由于 SVM 對過度擬合的魯棒性,對于高維數據尤其如此。

然而,出于以下幾個原因,數據科學家有時不愿嘗試支持向量機:

它需要手工特征工程,這可能很難實現。

傳統上,支持向量機速度較慢。

RAPIDS cuML 通過提供 在 GPU 上的加速比高達 500 倍 重新喚起了人們對重溫這一經典模型的興趣。有了 RAPIDS cuML ,支持向量機在數據科學界再次流行起來。

例如, RAPIDS cuML SVM 筆記本電腦已在多個 Kaggle 比賽中頻繁使用:

TReNDS Neuroimaging by Ahmet Erdem

CommonLit Readability by Chris Deotte

PetFinder by Chris Deotte

由于 transformers 已經學會了以長嵌入向量的形式提取有意義的表示, cuML SVM 是頭部分類器或回歸器的理想候選。

與 MLP 頭相比, cuML SVM 具有以下優勢:

容易調整。 在實踐中,我們發現在大多數情況下,僅調整一個參數 C 就足以支持 SVM。

速度 。在 GPU 上處理之前, cuML 將所有數據一次性移動到 GPU 。

多樣化 。支持向量機的預測與 MLP 預測在統計上不同,這使得它在集合中非常有用。

Simple API. cuML SVM API 提供 scikit-learn 風格的擬合和預測功能。

案例研究: PetFinder 。我的掌門人競賽

提出的帶有 SVM 磁頭的微調方法適用于 NLP 和 計算機視覺任務 。為了證明這一點,我們研究了 寵物搜尋者。我的掌門人競賽 ,這是一個 Kaggle 數據科學競賽,它根據寵物的照片預測了它們的受歡迎程度。

該項目使用的數據集由 10000 張手動標記的圖像組成,每個圖像都有一個我們想要預測的目標 pawpularity 。當 pawpularity 值在 0 到 100 之間時,我們使用回歸來解決這個問題。

由于只有 10000 個標記圖像,因此訓練深層神經網絡以從零開始獲得高精度是不切實際的。相反,我們通過使用預訓練的 swin transformer 主干,然后用標記的 pet 圖像對其進行微調來實現這一點。

poYBAGJfb-mALrMPAAF-bIA87Ac361.png

圖 2 。如何使用 cuML SVM 頭進行微調。

如圖 2 所示,我們的方法需要三個步驟:

首先,將使用 MLP 的回歸頭添加到主干 swin 變壓器,并對主干和回歸頭進行微調。一個有趣的發現是,二進制交叉熵損失優于常見的均方誤差損失( MSE ) 由于目標的分布 。

接下來,主干被凍結, MLP 頭被替換為 cuML SVM 頭。然后用常規的 MSE 損失對 SVM 頭進行訓練。

為了獲得最佳預測精度,我們對 MLP 頭和 SVM 頭進行了平均。求值度量根意味著平方誤差從 18 優化到 17.8 ,這對該數據集非常重要。

值得注意的是,第 1 步和第 3 步是可選的,在這里實施的目的是優化模型在本次比賽中的得分。僅步驟 2 是微調最常見的場景。因此,我們在步驟 2 測量了運行時間,并比較了三個選項: cuML SVM ( GPU )、 sklearn SVM ( CPU )和 PyTorchMLP ( GPU )。結果如圖 3 所示。

pYYBAGJfb-qAVtGAAACPhWPJYcA406.png

圖 3 。運行時比較

使用 sklearn SVM 對運行時間進行歸一化, cuML SVM 實現了 15 倍的訓練加速比和 28.18 倍的推理加速比。值得注意的是,由于 GPU 利用率高, cuML SVM 比 PyTorch MLP 更快。 筆記本可以在 Kaggle 上找到。

Transformer 微調的關鍵要點

Transformer 是革命性的深度學習模式,但培訓它們很耗時。 GPU 上變壓器的快速微調可以通過提供顯著的加速而使許多應用受益。 RAPIDS cuML SVM 也可以作為經典 MLP 頭的替代品,因為它速度更快、精度更高。

GPU 加速為 SVM 等經典 ML 模型注入了新的能量。使用 RAPIDS ,可以將兩個世界中最好的結合起來:經典的機器學習( ML )模型和尖端的深度學習( DL )模型。在里面 RAPIDS cuML ,你會發現更多閃電般快速且易于使用的型號。

后記

在撰寫和編輯本文時, PetFinder.my 掌門人競賽 得出結論。 NVIDIA KGMON Gilberto Titericz 通過使用 RAPIDS 支持向量機獲得第一名。他成功的解決方案是集中變壓器和其他深層 CNN 的嵌入,并使用 RAPIDS SVM 作為回歸頭。

關于作者

Jiwei Liu 是 NVIDIA 的數據科學家,致力于 NVIDIA 人工智能基礎設施,包括 RAPIDS 數據科學框架。

Chris Deotte 是 NVIDIA 的高級數據科學家。克里斯有博士學位。在計算科學和數學中,有一篇關于優化并行處理的論文。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5309

    瀏覽量

    106368
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4945

    瀏覽量

    131227
  • 人工智能
    +關注

    關注

    1806

    文章

    49014

    瀏覽量

    249405
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    明晚開播 |數據智能系列講座第7期:面向高泛化能力的視覺感知系統空間建模與微調學習

    鷺島論壇數據智能系列講座第7期「面向高泛化能力的視覺感知系統空間建模與微調學習」明晚8點精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目面向高泛化能力的視覺感知系統空間建模與微調學習
    的頭像 發表于 06-24 08:01 ?248次閱讀
    明晚開播 |數據智能系列講座第7期:面向高泛化能力的視覺感知系統空間建模與<b class='flag-5'>微調</b><b class='flag-5'>學習</b>

    Transformer架構概述

    由于Transformer模型的出現和快速發展,深度學習領域正在經歷一場翻天覆地的變化。這些突破性的架構不僅重新定義了自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發表于 06-10 14:24 ?343次閱讀
    <b class='flag-5'>Transformer</b>架構概述

    直播預約 |數據智能系列講座第7期:面向高泛化能力的視覺感知系統空間建模與微調學習

    建模與微調學習報告簡介構建高效、物理一致且具備良好泛化能力的視覺感知系統,是視覺智能、邊緣計算與具身機器人中的關鍵挑戰。為提升系統的泛化與適應能力,一類方法致力于構
    的頭像 發表于 05-29 10:04 ?193次閱讀
    直播預約 |數據智能系列講座第7期:面向高泛化能力的視覺感知系統空間建模與<b class='flag-5'>微調</b><b class='flag-5'>學習</b>

    Sapphire Rapids與OpenVINO?工具套件是否兼容?

    無法確定 Sapphire Rapids 與 OpenVINO? 工具套件的兼容性
    發表于 03-05 06:55

    如何使用MATLAB構建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任務,如機器翻譯。Transformer 通過引入自注意力機制使得處理長距離依賴關系時變得高效。因此 Vaswani 等人的論文強調“注意力是所需的一切”。
    的頭像 發表于 02-06 10:21 ?4032次閱讀
    如何使用MATLAB構建<b class='flag-5'>Transformer</b>模型

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型基礎上,使用新的、特定任務相關的數據
    發表于 01-14 16:51

    transformer專用ASIC芯片Sohu說明

    的舊圖像模型,也不能運行CNN、RNN或LSTM。 但對于transformer來說,Sohu是有史以來最快的芯片。 借助Llama 70B每秒超過50萬個token的吞吐量,Sohu可以讓您構建在GPU上無法實現的產品
    的頭像 發表于 01-06 09:13 ?1153次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    【「具身智能機器人系統」閱讀體驗】2.具身智能機器人大模型

    ,能夠利用\"思維鏈\"的技術將復雜任務分解為多個子任務,以漸進的方式解決問題。這不僅提高了任務的成功率,也顯著增強了系統的魯棒性,使得機器人可以更高效地應對復雜環境和多樣化需求
    發表于 12-29 23:04

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    醫療領域,手術輔助機器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實時控制算法,以及如何利用大模型優化手術路徑規劃。工業場景中,協作機器人面臨的主要挑戰是快速適應新工藝流程。具身智能通過在線
    發表于 12-24 15:03

    Transformer機器人技術的基礎嗎

    生成式預訓練Transformer(GPT)被吹捧為將徹底改變機器人技術。但實際應用中,GPT需要龐大且昂貴的計算資源、冗長的訓練時間以及(通常)非機載無線控制,諸多限制之下,GPT技術真的
    的頭像 發表于 12-05 10:54 ?671次閱讀
    <b class='flag-5'>Transformer</b>是<b class='flag-5'>機器</b>人技術的基礎嗎

    什么是機器學習?通過機器學習方法能解決哪些問題?

    來源:Master編程樹“機器學習”最初的研究動機是讓計算機系統具有人的學習能力以便實現人工智能。因為沒有學習能力的系統很難被認為是具有智能
    的頭像 發表于 11-16 01:07 ?963次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法能解決哪些問題?

    NPU與機器學習算法的關系

    在人工智能領域,機器學習算法是實現智能系統的核心。隨著數據量的激增和算法復雜度的提升,對計算資源的需求也在不斷增長。NPU作為一種專門為深度學習
    的頭像 發表于 11-15 09:19 ?1214次閱讀

    LLM和傳統機器學習的區別

    在人工智能領域,LLM(Large Language Models,大型語言模型)和傳統機器學習是兩種不同的技術路徑,它們在處理數據、模型結構、應用場景等方面有著顯著的差異。 1. 模型結構
    的頭像 發表于 11-08 09:25 ?1884次閱讀

    基于機器學習的IWR6843AOP跌倒和姿態檢測實現

    電子發燒友網站提供《基于機器學習的IWR6843AOP跌倒和姿態檢測實現.pdf》資料免費下載
    發表于 09-03 10:02 ?3次下載
    基于<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的IWR6843AOP跌倒和姿態檢測<b class='flag-5'>實現</b>

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    今天來學習大語言模型在自然語言理解方面的原理以及問答回復實現。 主要是基于深度學習和自然語言處理技術。 大語言模型涉及以下幾個過程: 數據收集:大語言模型通過從互聯網、書籍、新聞、社交媒體等多種渠道
    發表于 08-02 11:03
    主站蜘蛛池模板: 四虎影视在线影院在线观看 | 国产永久视频夜色资源网 | 草伊人| 亚洲一一在线 | 夜夜艹日日干 | 亚洲w码欧洲s码免费 | 免费日韩三级 | 龙口护士门91午夜国产在线 | 日本三级欧美三级香港黄 | 91大神在线视频观看 | 中文字幕三级久久久久久 | 欧美精品aaa久久久影院 | 久久久久久免费播放一级毛片 | 亚洲怡红院在线 | 国产成+人+综合+亚洲欧美丁香花 | 天堂8在线天堂bt | 99日精品欧美国产 | 美女扒开尿口给男人桶 | 一级片免费在线观看 | 人人公开免费超级碰碰碰视频 | 天堂视频在线免费观看 | 久久天天 | 久久观看| 天堂网在线播放 | 国产va在线 | 免费观看黄色在线视频 | 好爽好紧好大的免费视频国产 | 天堂免费在线视频 | 无遮挡很污很爽很黄的网站 | 福利在线看片 | 女人张开腿让男人桶免费最新 | 色婷五月综激情亚洲综合 | 亚洲小便 | 国产国拍亚洲精品mv在线观看 | 免费一级毛毛片 | 免费欧洲美女与动zooz | 色爱区综合激情五月综合激情 | 最好看的最新中文字幕2018免费视频 | 黄色福利小视频 | 久久综合免费 | 天堂社区在线视频 |