在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

淺析歸納偏置對模型縮放的影響

智能感知與物聯網技術研究所 ? 來源:智能感知與物聯網技術研 ? 作者:智能感知與物聯網 ? 2022-09-05 15:41 ? 次閱讀

谷歌、DeepMind:以 Transformer 為例,淺析歸納偏置對模型縮放的影響。

Transformer 模型的縮放近年來引發了眾多學者的研究興趣。然而,對于模型架構所施加的不同歸納偏置的縮放性質,人們了解得并不多。通常假設,在特定標度(計算、大小等)的改進可以遷移到不同的規模和計算區域。

不過,理解架構和標度律之間的相互作用至關重要,設計在不同標度上表現良好的模型具有重要的研究意義。有幾個問題還需要搞清楚:模型體系架構之間的縮放性不同嗎?如果是這樣,歸納偏置如何影響縮放表現?又如何影響上游(預訓練)和下游(遷移)任務?

在最近的一篇論文中,谷歌的研究者試圖了解歸納偏置(體系架構)對語言模型標度律的影響。為此,研究者在多個計算區域和范圍內(從 1500 萬到 400 億參數)預訓練和微調了十種不同的模型架構。總體來說,他們預訓練和微調了 100 多種不同體系架構和大小的模型,并提出了在縮放這十種不同體系架構方面的見解和挑戰。

9346d5ca-2c5b-11ed-ba43-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2207.10551.pdf

他們還注意到,縮放這些模型并不像看起來那么簡單,也就是說,縮放的復雜細節與本文中詳細研究的體系架構選擇交織在一起。例如,Universal Transformers (和 ALBERT) 的一個特性是參數共享。與標準的 Transformer 相比,這種體系架構的選擇不僅在性能方面,而且在計算指標如 FLOPs、速度和參數量方面顯著 warp 了縮放行為。相反,像 Switch Transformers 這樣的模型則截然不同,它的 FLOPs 和參數量之間的關系是不尋常的。

具體來說,本文的主要貢獻如下:

首次推導出不同歸納偏置和模型架構的標度律。研究者發現這個標度系數在不同的模型中有很大的不同,并指出這是模型開發中的一個重要考慮因素。事實證明,在他們考慮的所有十種體系架構中,普通的 Transformer 擁有最好的縮放性能,即使它在每個計算區域的絕對性能不是最好的。

研究者觀察到,在一個計算標度區域中運行良好的模型不一定是另一個計算標度區域中的最佳模型。此外,他們發現,某些模型盡管在低計算區域表現良好 ,但是難以進行縮放。這意味著很難通過在某個計算區域進行逐點對比來獲得模型縮放性的全貌。

研究者發現,當涉及到縮放不同的模型架構時,上游預訓練的困惑度可能與下游遷移不太相關。因此,底層架構和歸納偏置對于下游遷移也是至關重要的。

研究者強調了在某些架構下進行縮放的困難,并展示了一些模型沒有進行縮放(或以消極趨勢進行縮放)。他們還發現線性時間注意力模型(比如 Performer)難以進行擴展的趨勢。

方法與實驗

在論文的第三章,研究者概述了整體的實驗設置,并介紹了實驗中評估的模型。

下表 1 展示了本文的主要結果,包括可訓練參數量、FLOPs(單次正向傳遞)和速度(每秒步數)等,此外還包括了驗證困惑度(上游預訓練)和 17 個下游任務的結果。

93612452-2c5b-11ed-ba43-dac502259ad0.png

所有模型的縮放方式是否相同?

下圖 2 展示了增加 FLOPs 數量時所有模型的縮放行為。可以觀察到,所有模型的縮放行為是相當獨特和不同的,即其中大多數不同于標準 Transformer。也許這里最大的發現是,大多數模型(例如 LConv、Evolution)似乎都與標準 Transformer 表現相當或更好,但無法按照更高的計算預算去縮放。

另一個有趣的趨勢是,「線性」Transformer,如 Performer,不能按比例縮放。如圖 2i 所示,從 base 到 large scale 相比,預訓練的困惑度只下降了 2.7% 。而對于 vanilla Transformer 來說這一數字是 8.4%。

93798bbe-2c5b-11ed-ba43-dac502259ad0.png

下圖 3 展示了下游遷移任務上所有模型的縮放曲線,可以發現,和 Transformer 相比,大多數模型有著不同的縮放曲線,在下游任務中變化明顯。值得注意的是,大多數模型都有不同的上游或下游縮放曲線。

研究者發現,一些模型如 Funnel Transformer 和 LConv,似乎在上游表現相當不錯,但在下游受到很大影響。至于 Performer,上游和下游的性能差距似乎更大。值得注意的是,SuperGLUE 的下游任務通常需要編碼器上的偽交叉注意力,而卷積這樣的模型是無法處理的(Tay et al., 2021a)。

因此,研究者發現盡管某些模型擁有良好的上游性能,但可能還是難以學習下游任務。

9392c76e-2c5b-11ed-ba43-dac502259ad0.png

每一標度的最佳模型是否有所不同?

下圖 1 展示了根據上游或下游性能進行計算時的帕累托邊界。圖的顏色代表不同的模型,可以觀察到,每個標度和計算區域的最佳模型可能是不同的。此外,從上圖 3 中也可以看到這一點。例如,Evolved Transformer 似乎在微小(tiny)到小(small)的區域(下游)和標準 Transformer 一樣表現很好,但是當放大模型時,這種情況迅速改變。研究者在 MoS-Transformer 也觀察到了這一點,它在某些區域的表現明顯優于普通的 Transformer ,但在其他區域則不然。

93bc863a-2c5b-11ed-ba43-dac502259ad0.png

每個模型的標度律

下表 2 給出了多種情況下每個模型的擬合線性直線 α 的斜率。研究者通過繪制 F(FLOPs)、U (上游困惑度)、D (下游準確率)和 P(參數量)得到了α。一般來說,α 描述了模型的縮放性,例如 α_F,U 根據上游性能繪制 FLOPs。唯一的例外是α_U,D,它是衡量上游和下游性能的度量,高的 α_U,D 值意味著向下游任務遷移的模型縮放更佳。總體來說,α 值是一個度量,表示一個模型在縮放上的相對表現。

93d69c0a-2c5b-11ed-ba43-dac502259ad0.png

Scaling Protocols 是否以同樣的方式影響模型體系架構?

下圖 4 展示了四個模型體系架構(MoS-Transformer、Transformer、Evolved Transformer、LConv)中縮放深度的影響。

93fdafc0-2c5b-11ed-ba43-dac502259ad0.png

下圖 5 展示了在相同的四個體系架構中縮放寬度的影響。首先,在上游(負對數困惑)曲線上可以注意到,雖然不同的架構在絕對性能上有明顯的差異,但縮放趨勢仍然非常相似。在下游,除了 LConv 之外,深度縮放(上圖 4)在大多數體系架構上的作用似乎是一樣的。同時,相對于寬度縮放,似乎 Evolved Transformer 在應用寬度縮放時會稍微好一點。值得注意的是,與寬度縮放相比,深度縮放對下游縮放的影響要大得多。

942e48f6-2c5b-11ed-ba43-dac502259ad0.png

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6228

    瀏覽量

    107755
  • 模型
    +關注

    關注

    1

    文章

    3500

    瀏覽量

    50144
  • Transformer
    +關注

    關注

    0

    文章

    151

    瀏覽量

    6431

原文標題:谷歌、DeepMind新研究:歸納偏置如何影響模型縮放?

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    一種基于正交與縮放變換的大模型量化方法

    近年來,大規模語言模型(Large Language Models, LLMs)在自然語言處理領域取得了革命性進展。以 GPT 系列、LLaMA 等為代表的模型,通過千億級參數的復雜結構展現出強大的語義理解和生成能力。
    的頭像 發表于 03-04 11:10 ?424次閱讀
    一種基于正交與<b class='flag-5'>縮放</b>變換的大<b class='flag-5'>模型</b>量化方法

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型基礎上,使用新的、特定任務相關的數據
    發表于 01-14 16:51

    技術科普 | 芯片設計中的LEF文件淺析

    技術科普 | 芯片設計中的LEF文件淺析
    的頭像 發表于 11-13 01:03 ?717次閱讀
    技術科普 | 芯片設計中的LEF文件<b class='flag-5'>淺析</b>

    Llama 3 模型訓練技巧

    噪聲和異常值,確保數據的一致性和準確性。 特征工程 :提取有助于模型學習的特征,可能包括特征選擇、特征轉換和特征編碼。 數據增強 :對于圖像或文本數據,可以通過旋轉、縮放、裁剪等方法增加數據多樣性。 歸一化/標準化 :將數據縮放
    的頭像 發表于 10-27 14:24 ?830次閱讀

    使用功率縮放

    電子發燒友網站提供《使用功率縮放庫.pdf》資料免費下載
    發表于 10-18 10:24 ?0次下載
    使用功率<b class='flag-5'>縮放</b>庫

    DM642 EVM上的視頻縮放示例

    電子發燒友網站提供《DM642 EVM上的視頻縮放示例.pdf》資料免費下載
    發表于 10-16 10:52 ?0次下載
    DM642 EVM上的視頻<b class='flag-5'>縮放</b>示例

    什么是偏置

    偏置器是一種重要的電子元件,廣泛應用于射頻(RF)和微波電路中。它的主要功能是為放大器、混頻器和其他主動元件提供適當的直流偏置電壓或電流,以確保這些元件在最佳工作狀態下運行。本文將詳細介紹偏置器的基本概念、工作原理、類型、技術參
    的頭像 發表于 10-05 13:33 ?1969次閱讀

    OPA277共模電阻是250GΩ。電壓的正負是不是由偏置電流的方向決定的?

    對的。 Tina中的通用運放模型與專用模型(如OPA277)有什么區別,為什么會出現這種現象?通用模型內部哪些情況下,不能用通用模型替代專用模型
    發表于 09-18 08:49

    光電二極管輸入的偏置電流為何這么大?

    用的是光電二極管模型,輸入的偏置電流為何這么大,是固定的,但放大倍數如何求
    發表于 08-16 06:21

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    今天開始學習《大語言模型應用指南》第一篇——基礎篇,對于人工智能相關專業技術人員應該可以輕松加愉快的完成此篇閱讀,但對于我還是有許多的知識點、專業術語比較陌生,需要網上搜索學習更多的資料才能理解書中
    發表于 07-25 14:33

    PN結正向偏置和反向偏置的原理

    PN結正向偏置和反向偏置是半導體器件(如二極管、晶體管等)中非常重要的兩種工作狀態,它們的工作原理基于PN結獨特的電學性質。以下將詳細闡述PN結正向偏置和反向偏置的原理,并結合相關數字
    的頭像 發表于 07-25 11:28 ?1.1w次閱讀

    ai大模型訓練方法有哪些?

    AI大模型訓練方法是一個復雜且不斷發展的領域。以下是ai大模型訓練方法: 數據預處理和增強 數據清洗:去除噪聲和不完整的數據。 數據標準化:將數據縮放到統一的范圍。 數據增強:通過旋轉、縮放
    的頭像 發表于 07-16 10:11 ?3047次閱讀

    偏置電路的作用是什么呢

    偏置電路在電子電路中扮演著非常重要的角色。它主要用于為晶體管、場效應管等半導體器件提供穩定的工作點,確保電路能夠正常工作。 偏置電路的基本概念 偏置電路,又稱為偏置電壓源或
    的頭像 發表于 07-12 14:16 ?3341次閱讀

    偏置電路是數電還是模電

    偏置電路是模擬電子技術中的一個重要概念,它在模擬電路設計中起著至關重要的作用。 偏置電路的基本概念 偏置電路是用于為電子器件提供穩定工作點的電路。在模擬電路中,電子器件如晶體管、運算放大器等需要
    的頭像 發表于 07-12 14:14 ?875次閱讀

    偏置電路是由什么電路構成的?

    偏置電路是電子電路中非常重要的一部分,它主要用于為晶體管、場效應管等半導體器件提供穩定的工作點。偏置電路的設計對于電路的性能、穩定性和可靠性具有重要影響。 一、偏置電路的基本概念 1.1 偏置
    的頭像 發表于 07-12 14:12 ?1951次閱讀
    主站蜘蛛池模板: 亚洲综合情 | 色cccwww| 天天看天天干天天操 | 国产精品偷伦费观看 | 亚洲视频区 | 1024免费看片 | 男女交黄 | 亚洲高清免费观看 | 四虎影院国产精品 | 四虎网站最新网址 | 男人和女人做a免费视频 | 狠狠色噜噜狠狠狠狠2018 | 六月婷操 | 天天爽视频 | 国产午夜人做人视频羞羞 | 丁香六月在线观看 | 日本成片免费高清 | 久久久久久午夜精品 | 羞羞答答xxdd影院欧美 | 在线看片地址 | 天天躁天天爽 | 久久永久免费视频 | 亚洲国产女人aaa毛片在线 | 天堂福利视频在线观看 | 国产高清在线看 | 天堂在线观看免费视频 | 在线成人免费 | 国产私密 | 伊人网综合在线视频 | 天天插天天干天天操 | 黄色免费的视频 | 一区二区亚洲视频 | 农村的毛片丨级 | 72种姿势欧美久久久久大黄蕉 | 色香视频首页 | free chinese 国产精品 | 国产精品影视 | 日本不卡高清视频 | 国产精品资源在线观看网站 | 7m凹凸精品分类大全免费 | 日韩一级片视频 |