這是RISC-V跑大模型系列的第二篇文章,主要教大家如何將LLaMA移植到RISC-V環(huán)境里。
1. 環(huán)境準(zhǔn)備
1)最新版Python
2)確保機器有足夠的內(nèi)存加載完整模型(7B模型需要13~15G)
3)下載原版LLaMA模型和擴展了的中文模型
2. 模型下載
從LLaMA原版模型地址上下載下述文件(我們使用的是7B):
最后文件下載完成后的結(jié)果如下:
3. 加載并啟動
1)這一步需要下載llama.cpp,
python3 convert-pth-to-ggml.py models/7B/ 03)將.pth模型權(quán)重轉(zhuǎn)換為ggml的FP32格式,生成文件路徑為models/7B/ggml-model-f32.bin。

4)運行./main二進制文件,-m命令指定Q4量化模型(也可加載ggml-FP16的模型)。以下是解碼參數(shù)及示例:
./main models/7B/ggml-model-f32.bin --color -f prompts/alpaca.txt -ins -c 256 --temp 0.2 -n 128 --repeat_penalty 1.3
參數(shù)解釋:
-ins | 啟動類ChatGPT對話交流的運行模式 |
-f | 指定prompt模板,alpaca模型請加載prompts/alpaca.txt |
-c | 控制上下文的長度,值越大越能參考更長的對話歷史(默認(rèn):512) |
-n | 控制回復(fù)生成的最大長度(默認(rèn):128) |
-t | 控制batch size(默認(rèn):8),可適當(dāng)增加 |
--repeat_penalty | 控制線程數(shù)量(默認(rèn):4),可適當(dāng)增加 |
--temp | 溫度系數(shù),值越低回復(fù)的隨機性越小,反之越大 |
--top_p, top_k | 控制解碼采樣的相關(guān)參數(shù) |
審核編輯:劉清
-
解碼器
+關(guān)注
關(guān)注
9文章
1164瀏覽量
41818 -
python
+關(guān)注
關(guān)注
56文章
4825瀏覽量
86433 -
RISC-V
+關(guān)注
關(guān)注
46文章
2524瀏覽量
48478 -
澎峰科技
+關(guān)注
關(guān)注
0文章
70瀏覽量
3365 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1589瀏覽量
8937
原文標(biāo)題:RISC-V 跑大模型(二):LLaMA零基礎(chǔ)移植教程
文章出處:【微信號:perfxlab,微信公眾號:perfxlab】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
開發(fā)板上玩GTA,RISC-V多項移植項目成功運作中
安卓上RISC-V,移植成最大阻礙
每日推薦 | HarmonyOS 從入門到大神資料,從零開始寫RISC-V處理器經(jīng)驗連載
目前國內(nèi)RISC-V架構(gòu)的MCU從程序從arm移植到RISC-V難度大嗎?
RISC-V規(guī)范的演進 RISC-V何時爆發(fā)?
?開發(fā)板上玩GTA RISC-V多項移植項目成功運作中

從零開始寫RISC-V處理器
基于RISC-V內(nèi)核單片機移植RTOS實時操作系統(tǒng)(一)

解鎖RISC-V技術(shù)力量丨曹英杰:RISC-V與大模型探索

評論