在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Hugging Face大語言模型優化技術

jf_WZTOguxH ? 來源:AI前線 ? 2023-10-09 16:25 ? 次閱讀

大語言模型的生產部署存在兩個主要的挑戰,一個是需要大量的參數,一個是需要處理非常長的用于表示上下文信息的輸入序列。Hugging Face 基于他們提供大模型服務的經驗分享了一些克服這些障礙的技術。

Patrick von Platen 在文中介紹的 Hugging Face 研究的三種技術是降低數值精度、使用一種叫作 Flash Attention 的注意力算法,以及使用專門的推理架構。

大語言模型需要大量的 VRAM 來加載,從幾十 (bigcode/starcoder) 到數百 GB (Llama、Bloom、GPT3)。第一個優化手段是從 float32 切換到 bfloat16 精度:

現在幾乎所有的模型都是基于 bfloat16 訓練的,如果你的 GPU 支持 bfloat16,就沒有理由基于全 float32 精度運行模型。float32 不會給出比訓練模型所使用的精度更好的推理結果。

這可以使總體內存消耗減少一半,但可惜的是,在許多情況下仍然需要很大的內存。一種更激進的方法是將模型權重量化為 8 位或 4 位,這已經被證明不會導致顯著的性能下降。

量化對于文本生成來說特別有效,因為我們所關心的是選擇最有可能的下一個標記集合,而不是下一個標記 Logit 分布的確切值。

這將進一步減少所需的內存,使得在只有 16GB VRAM 的 GPU 上運行較小的模型成為可能,盡管代價是推理時間稍長。

von Platen 寫道,使用 Flash Attention 是另一相關鍵的優化,它是大語言模型用來理解輸入標記上下文關系的自注意力層的一種算法,有可能打破輸入標記數量的二次增長。

因為該算法太過復雜,無法在這里描述,但可以這么說,它利用了 softmax 規范化統計數據和一些數學手段,在只需要隨輸入標記線性增長的內存的情況下提供相同的輸出。推理性能也得益于算法使用了更快的 SRAM 而不是更慢的 GPU VRAM。

在實踐中,目前絕對沒有理由不使用 Flash Attention。該算法在數學層面給出了相同的輸出,并且速度更快,內存效率更高。

Here recent research can help to make the right choice with two components that quickly become bottlenecks, says von Platen,positional embeddingsand thekey-value cache.

在生產環境中部署大語言模型的第三項優化措施是選擇正確的架構,讓它們能夠有效地處理長文本輸入。von Platen 寫道,最近的研究有助于我們如何對兩個很快成為瓶頸的組件做出選擇——一個是 _ 位置嵌入 (positional embeddings)_,一個是 _ 鍵值緩存 _。

位置嵌入通過將每個標記的位置編碼為數字表示來幫助語言大模型理解序列順序。對于需要處理大型文本輸入任務的大語言模型,應該使用 RoPE 和 ALiBi 等相對位置嵌入技術進行訓練。

RoPE 和 ALiBi 位置編碼都可以外推到訓練期間未遇到過的輸入長度,而事實證明,與 RoPE 相比,外推對于開箱即用的 ALiBi 的效果要好得多。

目前的許多大語言模型中已經在使用這兩種算法。

鍵值緩存可以作為對對話上下文進行編碼的一種方法。鍵值緩存在發生每個新交互時增加一個元素,這比為每個請求編碼 / 解碼上下文的方法要有效得多。von Platen 詳細介紹了兩類鍵值緩存,即 Multi-Query-Attention (MQA) 和 Grouped-Query-Attention(GQA) 。

von Platen 的文章所涵蓋的內容不只有本文所概述的這些,他的文章中還提供了實際的例子來證明他的觀點,所以請不要錯過他的文章。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4915

    瀏覽量

    130723
  • 語言模型
    +關注

    關注

    0

    文章

    560

    瀏覽量

    10691
  • 大模型
    +關注

    關注

    2

    文章

    3045

    瀏覽量

    3856

原文標題:Hugging Face 大語言模型優化技術

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    歐洲借助NVIDIA Nemotron優化主權大語言模型

    NVIDIA 正攜手歐洲和中東的模型構建商與云提供商,共同優化主權大語言模型 (LLM),加速該地區各行業采用企業級 AI。
    的頭像 發表于 06-12 15:42 ?116次閱讀

    利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型

    近期阿里通義實驗室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內的 3 個
    的頭像 發表于 03-12 13:42 ?872次閱讀
    利用英特爾OpenVINO在本地運行Qwen2.5-VL系列<b class='flag-5'>模型</b>

    從OpenVINO? 2019_R3下載的face-detection-retail-0004模型,運行時報錯怎么解決?

    從 OpenVINO? 2019_R3 下載的 face-detection-retail-0004 模型。 構建開源OpenVINO?版本 2020.1 運行 Interactive
    發表于 03-05 06:00

    語言模型的解碼策略與關鍵優化總結

    本文系統性地闡述了大型語言模型(LargeLanguageModels,LLMs)中的解碼策略技術原理及其實踐應用。通過深入分析各類解碼算法的工作機制、性能特征和優化方法,為研究者和工
    的頭像 發表于 02-18 12:00 ?521次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的解碼策略與關鍵<b class='flag-5'>優化</b>總結

    Hugging Face推出最小AI視覺語言模型

    Hugging Face平臺于1月23日發布博文,推出了兩款令人矚目的輕量級AI模型——SmolVLM-256M-Instruct和SmolVLM-500M-Instruct。 其中
    的頭像 發表于 01-24 14:15 ?842次閱讀

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+Embedding技術解讀

    生成回答。在特定領域或任務中,可以通過微調Embedding模型來提高檢索的相關性和準確性。Embedding在大模型RAG技術中發揮著至關重要的作用。它不僅實現了文本向量化,還為信息檢索和文本生成提供了基礎。通過不斷
    發表于 01-17 19:53

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型
    發表于 01-14 16:51

    AI大語言模型開發步驟

    開發一個高效、準確的大語言模型是一個復雜且多階段的過程,涉及數據收集與預處理、模型架構設計、訓練與優化、評估與調試等多個環節。接下來,AI部落小編為大家詳細闡述AI大
    的頭像 發表于 12-19 11:29 ?760次閱讀

    如何優化自然語言處理模型的性能

    優化自然語言處理(NLP)模型的性能是一個多方面的任務,涉及數據預處理、特征工程、模型選擇、模型調參、
    的頭像 發表于 12-05 15:30 ?1548次閱讀

    語言模型開發語言是什么

    在人工智能領域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發語言和工具的支持。下面,AI部落小編為您介紹大語言
    的頭像 發表于 12-04 11:44 ?610次閱讀

    云端語言模型開發方法

    云端語言模型的開發是一個復雜而系統的過程,涉及數據準備、模型選擇、訓練優化、部署應用等多個環節。下面,AI部落小編為您分享云端語言
    的頭像 發表于 12-02 10:48 ?625次閱讀

    語言模型優化生成管理方法

    語言模型優化生成管理是一個系統工程,涉及模型架構、數據處理、內容控制、實時響應以及倫理監管等多個層面。以下,是對大語言
    的頭像 發表于 12-02 10:45 ?350次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    今天來學習大語言模型在自然語言理解方面的原理以及問答回復實現。 主要是基于深度學習和自然語言處理技術。 大
    發表于 08-02 11:03

    Hugging Face科技公司推出SmolLM系列語言模型

    7月22日最新資訊,Hugging Face科技公司在語言模型領域再創新高,正式推出了SmolLM系列——一款專為適應多樣計算資源而設計的緊湊型語言
    的頭像 發表于 07-23 16:35 ?616次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    的大語言模型設計技術人員閱讀,主要包括大語言模型優化方法、Agent系統調優以及
    發表于 07-21 13:35
    主站蜘蛛池模板: 激情五月激情综合色区 | 欧美午夜网| 美女被网站免费看九色视频 | 欧美a色 | 三级在线国产 | 青草国内精品视频在线观看 | 一级大片视频 | 国产一区在线播放 | 天天射天天射 | 第四色男人天堂 | 99久久99久久精品免费看子伦 | 免费污视频在线 | 午夜在线看片 | 22222se男人的天堂 | 韩国免费三片在线视频 | 久久婷婷丁香七月色综合 | 久久视频免费看 | 美女禁处 | 精品视频免费看 | 欧美8888 | 拍真实国产伦偷精品 | 伊人狼人综合 | 嘿嘿嘿视频在线观看网站 | 香港日本三级在线播放 | 日本人善交69xxx | 国产午夜精品片一区二区三区 | 亚洲电影一区二区 | 亚洲成人高清 | 日本美女搞黄 | 亚洲成人资源 | 国产叼嘿视频网站在线观看 | 欧美亚洲综合另类成人 | 日本国产高清色www视频在线 | 午夜日本一区二区三区 | 亚洲国内精品久久 | 免费看污黄视频软件 | 国产精品资源网站在线观看 | 婷婷开心激情网 | 一级毛片真人免费播放视频 | 天天操天天舔天天射 | 天堂中文资源在线观看 |