在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

單張消費(fèi)級(jí)顯卡微調(diào)多模態(tài)大模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:Smarter ? 2023-06-30 10:43 ? 次閱讀

把大模型的訓(xùn)練門(mén)檻打下來(lái)!我們?cè)趩螐埾M(fèi)級(jí)顯卡上實(shí)現(xiàn)了多模態(tài)大模型(LaVIN-7B, LaVIN-13B)的適配和訓(xùn)練,這篇文章主要介紹一下用到的技術(shù)方案和技術(shù)細(xì)節(jié),供有需要的人參考。這里用到的模型是LaVIN(語(yǔ)言模型是LLaMA,視覺(jué)模型是ViT-L)。LaVIN通過(guò)參數(shù)高效的訓(xùn)練能將LLaMA拓展到多模態(tài)來(lái)完成圖文問(wèn)答、對(duì)話以及文本對(duì)話等等任務(wù)。

目前的結(jié)果:7B的多模態(tài)大模型訓(xùn)練(LaVIN-7B)大約需要8~9G的顯存,13B的多模態(tài)大模型訓(xùn)練(LaVIN-13B)大約需要13~14G顯存。目前的模型在單張消費(fèi)級(jí)顯卡上已經(jīng)完全能夠完成訓(xùn)練了,性能相較于fp16略有下降,但是仍然極具競(jìng)爭(zhēng)力!未來(lái)預(yù)計(jì)65B的模型也能在單張A100(40G)上完成訓(xùn)練,我們后續(xù)會(huì)公布結(jié)果。

技術(shù)方案

我們的技術(shù)方案結(jié)合了LaVIN和qlora,主要分為以下幾點(diǎn):

參數(shù)高效的多模態(tài)適配 (大概減少了一大半顯存)

4bit量化訓(xùn)練 (大概減少了3~8G的固定顯存)

梯度累計(jì)+gradient checkpointing (大概減少了一半多的顯存)

Paged Optimizer (作用不是很明顯)

參數(shù)高效的多模態(tài)適配。

bdc7c850-1692-11ee-962d-dac502259ad0.png

在此之前,我先簡(jiǎn)單介紹一下之前的工作《Cheap and Quick: Efficient Vision-Language Instruction Tuning for Large Language Models》。我們?cè)谶@個(gè)工作中提出了一種參數(shù)高效的適配方法,能夠在將整個(gè)LLM參數(shù)凍住的情況下實(shí)現(xiàn):

參數(shù)高效的多模態(tài)大模型適配(僅花費(fèi)3~6M額外參數(shù))

端到端高效訓(xùn)練 (減少2/3的訓(xùn)練時(shí)間)

單模態(tài)和多模態(tài)的自動(dòng)切換(兼容不同模態(tài))

通過(guò)這種方式,我們?cè)赟cienceQA上達(dá)到了接近SOTA的性能,同時(shí)實(shí)現(xiàn)了文本模態(tài)和圖文模態(tài)的同時(shí)適配。這種參數(shù)高效的訓(xùn)練方式,實(shí)際上節(jié)約了大部分的顯存。以LLaVA為比較對(duì)象,在完全微調(diào)大模型的情況下,LLaVA-13B在A100(80G)上會(huì)爆顯存。相比之下,LaVIN-13B僅僅需要大約55G的顯存開(kāi)銷。考慮到LLaVA還使用了gradient checkpointing,LaVIN-13B至少節(jié)省了一半的顯存開(kāi)銷(估計(jì)),同時(shí)訓(xùn)練速度會(huì)更快。相比于現(xiàn)有的參數(shù)高效的方法,我們的方案在性能和適配性上有顯著優(yōu)勢(shì),具體參考論文,這里不贅述了。但是由于deepspeed好像不支持參數(shù)高效的訓(xùn)練方式,所以實(shí)際中顯存開(kāi)銷其實(shí)和加滿優(yōu)化的LLaVA差不多,甚至略多一點(diǎn)。

4bit量化訓(xùn)練

4bit量化訓(xùn)練主要參考了qlora。簡(jiǎn)單來(lái)說(shuō),qlora把LLM的權(quán)重量化成了4bit來(lái)存儲(chǔ),同時(shí)在訓(xùn)練過(guò)程中反量化成16bit來(lái)保證訓(xùn)練精度。通過(guò)這種方式,能夠大大降低訓(xùn)練過(guò)程中的顯存開(kāi)銷(訓(xùn)練速度應(yīng)該區(qū)別不大)。這種方法非常適合和參數(shù)高效的方法進(jìn)行結(jié)合。但是原文中針對(duì)的是單模態(tài)的LLM,同時(shí)代碼已經(jīng)封在了huggingface的庫(kù)里。因此,我們把核心代碼從huggingface的庫(kù)里抽取出來(lái),同時(shí)遷移到了LaVIN的代碼里。主要原理就是將LLM中所有的線性層替換成4bit的量化層,感興趣的可以去參考一下我們的寫(xiě)法,在quantization.py以及mm_adaptation.py中大概十來(lái)行代碼。

4bit量化訓(xùn)練之后,顯存在bs>1的時(shí)候下降的不是特別明顯。LaVIN-7B大概下降了4~6G的樣子,但是這部分的顯存下降是固定的,其實(shí)非常有價(jià)值。到這里我也很好奇qlora怎么把模型塞到單卡里的,這個(gè)時(shí)候LaVIN-7B的顯存開(kāi)銷大概還在36+G的水平。后面check了一下他們的代碼發(fā)現(xiàn)了接下來(lái)的關(guān)鍵設(shè)置。

梯度累計(jì)+gradient checkpointing

這里的關(guān)鍵就在于時(shí)間換空間。通過(guò)batch size (bs)=1+梯度累計(jì)以及gradient checkpointing的方式能夠大大降低顯存開(kāi)銷。這也是qlora訓(xùn)練時(shí)的一大核心(其實(shí)光靠量化訓(xùn)練很難做到顯存的極致壓縮)。我們的實(shí)驗(yàn)結(jié)果大概是這樣:LaVIN-7B在bs=4改成batch size (bs)=1+梯度累計(jì)之后顯存降低到了25G左右。經(jīng)過(guò)gradient checkpointing,顯存降低到9~10G左右。到這里,顯存從原來(lái)的上百G壓縮到了10G左右,已經(jīng)非常可觀了。但是這一步的代價(jià)是訓(xùn)練速度明顯變慢了,但其實(shí)和qlora原文中的速度下降比例差不多。相比于原來(lái)完全訓(xùn)不了的情況來(lái)說(shuō),這些額外的時(shí)間開(kāi)銷顯得非常微不足道。

Paged Optimizer

Paged Optimizer的作用是在快爆顯存的時(shí)候,會(huì)將optimizer中的一部分權(quán)重遷移到cpu上,從而保證訓(xùn)練的正常進(jìn)行。實(shí)際使用中,沒(méi)有感覺(jué)到太大的區(qū)別。我猜測(cè)是在顯存開(kāi)銷和顯卡顯存非常接近的時(shí)候,這個(gè)設(shè)置能救下急。正常情況下,好像沒(méi)有什么太大的幫助。感興趣的可以試一下8 bit的optimizer,或許幫助更明顯。

性能比較

ScienceQA(多模態(tài)科學(xué)問(wèn)答數(shù)據(jù)集):在ScienceQA上,我們單卡的情況下完成了4bit訓(xùn)練并和16bit的方法進(jìn)行了比較,結(jié)果如下:

bde233e8-1692-11ee-962d-dac502259ad0.jpg

可以看到LaVIN-lite性能仍然遠(yuǎn)超參數(shù)高效的方法LLaMA-Adapter,但是相比較16bit訓(xùn)練的LaVIN,性能出現(xiàn)了略微的下降。我們猜測(cè)原因是4bit訓(xùn)練的時(shí)候可能需要插入更多的adapter來(lái)進(jìn)行適配,也歡迎大家基于這個(gè)基線來(lái)進(jìn)行進(jìn)一步探索和比較。

最后,在解決訓(xùn)練的問(wèn)題之后,我們會(huì)持續(xù)推進(jìn)模型能力的提升以及應(yīng)用場(chǎng)景的創(chuàng)新。另外,多模態(tài)對(duì)話模型我們也在持續(xù)迭代中,未來(lái)也會(huì)以技術(shù)報(bào)告的形式來(lái)進(jìn)行分享。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 適配器
    +關(guān)注

    關(guān)注

    9

    文章

    2036

    瀏覽量

    69356

原文標(biāo)題:LaVIN-lite:?jiǎn)螐埾M(fèi)級(jí)顯卡微調(diào)多模態(tài)大模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)模態(tài)模型

    熟悉愛(ài)芯通元NPU的網(wǎng)友很清楚,從去年開(kāi)始我們?cè)诙藗?cè)模態(tài)模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先后適配了國(guó)內(nèi)最早開(kāi)源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?1240次閱讀
    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化>這本書(shū)。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    VisCPM:邁向多語(yǔ)言模態(tài)模型時(shí)代

    隨著 GPT-4 和 Stable Diffusion 等模型模態(tài)能力的突飛猛進(jìn),模態(tài)模型
    的頭像 發(fā)表于 07-10 10:05 ?927次閱讀
    VisCPM:邁向多語(yǔ)言<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>時(shí)代

    更強(qiáng)更通用:智源「悟道3.0」Emu模態(tài)模型開(kāi)源,在模態(tài)序列中「補(bǔ)全一切」

    當(dāng)前學(xué)界和工業(yè)界都對(duì)模態(tài)模型研究熱情高漲。去年,谷歌的 Deepmind 發(fā)布了模態(tài)視覺(jué)語(yǔ)言模型
    的頭像 發(fā)表于 07-16 20:45 ?975次閱讀
    更強(qiáng)更通用:智源「悟道3.0」Emu<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>開(kāi)源,在<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>序列中「補(bǔ)全一切」

    中科大&amp;字節(jié)提出UniDoc:統(tǒng)一的面向文字場(chǎng)景的模態(tài)模型

    如上圖所示,UniDoc基于預(yù)訓(xùn)練的視覺(jué)大模型及大語(yǔ)言模型,將文字的檢測(cè)、識(shí)別、spotting(圖中未畫(huà)出)、模態(tài)理解等四個(gè)任務(wù),通過(guò)多模態(tài)
    的頭像 發(fā)表于 08-31 15:29 ?1876次閱讀
    中科大&amp;字節(jié)提出UniDoc:統(tǒng)一的面向文字場(chǎng)景的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    模態(tài)模型企業(yè),智子引擎全國(guó)總部落戶南京江北

    智子引擎主要從事新一代人工智能低層引擎和模態(tài)模型的研究開(kāi)發(fā)和商業(yè)化運(yùn)營(yíng)。本項(xiàng)目開(kāi)發(fā)了應(yīng)用水平模態(tài)chatgpt產(chǎn)品“元乘象ChatIm
    的頭像 發(fā)表于 10-10 11:03 ?1326次閱讀

    北大&amp;華為提出:模態(tài)基礎(chǔ)大模型的高效微調(diào)

    深度學(xué)習(xí)的大模型時(shí)代已經(jīng)來(lái)臨,越來(lái)越多的大規(guī)模預(yù)訓(xùn)練模型在文本、視覺(jué)和模態(tài)領(lǐng)域展示出杰出的生成和推理能力。然而大模型巨大的參數(shù)量有兩個(gè)明顯
    的頭像 發(fā)表于 11-08 16:20 ?1578次閱讀
    北大&amp;華為提出:<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>基礎(chǔ)大<b class='flag-5'>模型</b>的高效<b class='flag-5'>微調(diào)</b>

    探究編輯模態(tài)大語(yǔ)言模型的可行性

    不同于單模態(tài)模型編輯,模態(tài)模型編輯需要考慮更多的模態(tài)信息。文章出發(fā)點(diǎn)依然從單
    發(fā)表于 11-09 14:53 ?734次閱讀
    探究編輯<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語(yǔ)言<b class='flag-5'>模型</b>的可行性

    模型+模態(tài)的3種實(shí)現(xiàn)方法

    我們知道,預(yù)訓(xùn)練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢(shì)是不支持其他模態(tài)(包括圖像、語(yǔ)音、視頻模態(tài))的輸入和輸出,那么如何在預(yù)訓(xùn)練LLM的基礎(chǔ)上引入跨模態(tài)的信息,讓其變得更強(qiáng)大、更通用呢?本節(jié)將介紹“大
    的頭像 發(fā)表于 12-13 13:55 ?2445次閱讀
    大<b class='flag-5'>模型</b>+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>的3種實(shí)現(xiàn)方法

    從Google模態(tài)模型看后續(xù)大模型應(yīng)該具備哪些能力

    前段時(shí)間Google推出Gemini模態(tài)模型,展示了不凡的對(duì)話能力和模態(tài)能力,其表現(xiàn)究竟如何呢?
    的頭像 發(fā)表于 12-28 11:19 ?1707次閱讀
    從Google<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>看后續(xù)大<b class='flag-5'>模型</b>應(yīng)該具備哪些能力

    機(jī)器人基于開(kāi)源的模態(tài)語(yǔ)言視覺(jué)大模型

    ByteDance Research 基于開(kāi)源的模態(tài)語(yǔ)言視覺(jué)大模型 OpenFlamingo 開(kāi)發(fā)了開(kāi)源、易用的 RoboFlamingo 機(jī)器人操作模型,只用單機(jī)就可以訓(xùn)練。
    發(fā)表于 01-19 11:43 ?613次閱讀
    機(jī)器人基于開(kāi)源的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>語(yǔ)言視覺(jué)大<b class='flag-5'>模型</b>

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡(jiǎn)單來(lái)說(shuō),
    的頭像 發(fā)表于 10-18 09:39 ?1096次閱讀

    商湯日日新模態(tài)模型權(quán)威評(píng)測(cè)第一

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權(quán)威綜合評(píng)測(cè)權(quán)威平臺(tái)OpenCompass的模態(tài)評(píng)測(cè)中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?902次閱讀

    海康威視發(fā)布模態(tài)模型文搜存儲(chǔ)系列產(chǎn)品

    模態(tài)模型為安防行業(yè)帶來(lái)重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,海康威視將大參數(shù)量、大樣本量的圖文模態(tài)
    的頭像 發(fā)表于 02-18 10:33 ?544次閱讀

    商湯日日新SenseNova融合模態(tài)模型 國(guó)內(nèi)首家獲得最高評(píng)級(jí)的大模型

    近日,中國(guó)信息通信研究院(以下簡(jiǎn)稱“中國(guó)信通院”)完成可信AI模態(tài)模型首輪評(píng)估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?334次閱讀
    主站蜘蛛池模板: 女性私密部位扒开的视频 | 在线欧美国产 | 国产女人伦码一区二区三区不卡 | 一级做受毛片免费大片 | 成年片色大黄全免费 | 午夜久久福利 | 欧美精品xxxⅹ欧美 欧美精品高清在线xxxx | 久久伊人色| 国内精品免费视频自在线 | 窝窝午夜看片成人精品 | 国模私拍大尺度视频在线播放 | 色爱综合区五月小说 | 天天干天天色天天干 | 99热色 | 国模吧 | 久久中文字幕综合婷婷 | 一区二区三区在线播放 | video欧美性精品 | 欧美爱爱帝国综合社区 | 国产精品久久久久久福利 | 美女国产一区 | 美女自熨出白浆视频在线播放 | 欧美一级爱操视频 | 日韩毛片在线看 | 亚洲 欧美 自拍 另类 欧美 | 国产精品虐乳在线播放 | 在线理论视频 | 国产高清小视频 | 苍井优一级毛片免费观看 | 日韩亚洲人成网站在线播放 | 综合激情五月婷婷 | 中文字幕三级 | 天天久久综合 | 中文三 级 黄 色 片 | 一级a性色生活片毛片 | 97人人艹| 欧美性色黄大片四虎影视 | 亚洲九九香蕉 | 中文字幕婷婷 | 特黄a大片免费视频 | 自偷自拍亚洲欧美清纯唯美 |