自 ChatGPT 發(fā)布以來(lái),大模型的強(qiáng)大讓人們看見(jiàn)了通用人工智能的曙光,各個(gè)科技大廠也紛紛開(kāi)源自家的大語(yǔ)言模型。然而,大模型也意味著高昂的硬件成本,讓不少平民玩家望而卻步。
為了讓大模型走入千家萬(wàn)戶,賦能百業(yè),上海人工智能實(shí)驗(yàn)室開(kāi)發(fā)了低成本大模型訓(xùn)練工具箱 XTuner,旨在讓大模型訓(xùn)練不再有門(mén)檻。通過(guò) XTuner,最低只需 8GB 顯存,就可以打造專(zhuān)屬于你的 AI 助手。
X 種選擇
XTuner 提供了豐富的功能,上圖中的各項(xiàng)功能都可以隨意組合搭配。
除單點(diǎn)功能外,XTuner 還有以下三個(gè)黑科技,讓開(kāi)發(fā)者可以做到真正的“面向數(shù)據(jù)”工作。
高效的數(shù)據(jù)引擎
XTuner 適配了多個(gè)熱門(mén)開(kāi)源數(shù)據(jù)集格式,開(kāi)發(fā)者如已有對(duì)應(yīng)格式的數(shù)據(jù)集,可以直接使用,并支持多種格式數(shù)據(jù)源的混合使用:
Alpaca 格式,斯坦福大學(xué)開(kāi)源數(shù)據(jù)集的格式,也是社區(qū)開(kāi)源項(xiàng)目使用較多的一種格式
MOSS 格式,復(fù)旦大學(xué)開(kāi)源指令微調(diào)數(shù)據(jù)集的格式,包含多輪對(duì)話和工具調(diào)用
Gunacao 格式,QLoRA 項(xiàng)目中所使用數(shù)據(jù)集的格式
OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的數(shù)據(jù)集格式
更多數(shù)據(jù)集格式正在持續(xù)添加中......
pip install xtuner # 訓(xùn)練混合了 Alpaca 格式和 Gunacao 格式的數(shù)據(jù) xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3
除了支持多種數(shù)據(jù)集格式外,XTuner 還針對(duì)大語(yǔ)言模型數(shù)據(jù)的特點(diǎn),對(duì)各種數(shù)據(jù)集格式做了充分的解耦,相較于其他的 Finetune 開(kāi)源項(xiàng)目,可以在不破壞 Chat 模型對(duì)話模版的情況下,對(duì) Chat 模型進(jìn)行 Finetune。
pip install xtuner # 不破壞 Chat 模型對(duì)話模版,繼續(xù)增量指令微調(diào) xtuner train internlm_chat_7b_qlora_oasst1_e3
針對(duì) GPU 計(jì)算特點(diǎn),在顯存允許的情況下,XTuner 支持將多條短數(shù)據(jù)拼接至模型最大輸入長(zhǎng)度,以此最大化 GPU 計(jì)算核心的利用率,可以顯著提升訓(xùn)練速度。例如,在使用 oasst1 數(shù)據(jù)集微調(diào) Llama2-7B 時(shí),數(shù)據(jù)拼接后的訓(xùn)練時(shí)長(zhǎng)僅為普通訓(xùn)練的 50%。
多種訓(xùn)練引擎
XTuner 首次嘗試將 HuggingFace 與 OpenMMLab 進(jìn)行結(jié)合,兼顧易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 兩種訓(xùn)練引擎,開(kāi)發(fā)者如有深度定制化需求,可根據(jù)使用習(xí)慣靈活配置。
pip install xtuner # 使用 MMEngine Runner 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3_hf
一鍵啟動(dòng)訓(xùn)練
XTuner 內(nèi)置了增量預(yù)訓(xùn)練、單輪&多輪對(duì)話指令微調(diào)、工具類(lèi)指令微調(diào)的標(biāo)準(zhǔn)化流程,讓開(kāi)發(fā)者只需聚焦于數(shù)據(jù)本身。
同時(shí), XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技術(shù),提供各種尺寸模型在各種規(guī)格硬件下的訓(xùn)練解決方案,通過(guò) XTuner 一鍵式啟動(dòng)訓(xùn)練,僅需 8GB 顯存即可微調(diào) 7B 模型。
pip install 'xtuner[deepspeed]' # 8G 顯存微調(diào) Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2
基于此,開(kāi)發(fā)者可以專(zhuān)注于數(shù)據(jù),其他環(huán)節(jié)放心交給 XTuner,抽出更多精力去奔向大模型的星辰大海!
X 種玩法
通過(guò) XTuner,開(kāi)發(fā)者可以給大模型添加插件,補(bǔ)足大模型欠缺的能力,甚至獲得某些 ChatGPT 才有的技能。
XTuner 在 HuggingFace Hub 上提供了豐富的大模型插件,以下示例都可以在 Hub 中找到,歡迎大家下載體驗(yàn)!
ColoristLlama -- 你的專(zhuān)屬調(diào)色師
通過(guò)在少量顏色注釋數(shù)據(jù)集上對(duì) Llama2-7B 進(jìn)行指令微調(diào)訓(xùn)練,XTuner 成功解鎖了其調(diào)色能力。最終得到的模型甚至可以像“你的甲方”一樣反復(fù)修訂!
pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist
Llama "聯(lián)網(wǎng)" -- 更可靠及時(shí)的回答
借助 XTuner 及插件開(kāi)源數(shù)據(jù)集,我們還解鎖了 Llama 2、QWen 等開(kāi)源模型的隱藏能力, 使其可以像 ChatGPT 一樣聯(lián)網(wǎng)搜索、調(diào)用工具,獲得更可靠的回復(fù)。
-
gpu
+關(guān)注
關(guān)注
28文章
4949瀏覽量
131283 -
顯存
+關(guān)注
關(guān)注
0文章
112瀏覽量
13895 -
大模型
+關(guān)注
關(guān)注
2文章
3147瀏覽量
4079
原文標(biāo)題:8G顯存一鍵訓(xùn)練,解鎖Llama2隱藏能力!XTuner帶你玩轉(zhuǎn)大模型
文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
大模型推理顯存和計(jì)算量估計(jì)方法研究
使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?
企業(yè)級(jí)Claude API應(yīng)用方案!完整調(diào)用攻略來(lái)襲:帶你解鎖Claude 3.5/3.7大模型

無(wú)法在OVMS上運(yùn)行來(lái)自Meta的大型語(yǔ)言模型 (LLM),為什么?
開(kāi)關(guān)柜一鍵順控在一鍵停電、一鍵送電中的作用
訓(xùn)練AI大模型需要什么樣的gpu
用Ollama輕松搞定Llama 3.2 Vision模型本地部署

Llama 3 模型訓(xùn)練技巧
Llama 3 語(yǔ)言模型應(yīng)用
一鍵斷電開(kāi)關(guān)的種類(lèi)有哪些
一鍵斷電開(kāi)關(guān)的控制原理是什么
源2.0-M32大模型發(fā)布量化版 運(yùn)行顯存僅需23GB 性能可媲美LLaMA3

變電站一鍵順控系統(tǒng)和開(kāi)關(guān)柜一鍵順控有區(qū)別嗎?

評(píng)論