在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何將Llama3.1模型部署在英特爾酷睿Ultra處理器

英特爾物聯網 ? 來源:英特爾物聯網 ? 作者:虞曉瓊 ? 2024-07-26 09:51 ? 次閱讀

作者:虞曉瓊 博士

東莞職業技術學院

本文從搭建環境開始,一步一步幫助讀者實現只用五行代碼便可將Llama3.1模型部署在英特爾酷睿Ultra 處理器上。請把文中范例代碼下載到本地:

 git clone https://gitee.com/Pauntech/llama3.1-model.git

1.1Meta Llama3.1簡介

7月24日,Meta宣布推出迄今為止最強大的開源模型——Llama 3.1 405B,同時發布了全新升級的Llama 3.1 70B和8B模型。

Llama 3.1 405B支持上下文長度為128K Tokens,在基于15萬億個Tokens、超1.6萬個H100 GPU上進行訓練,研究人員基于超150個基準測試集的評測結果顯示,Llama 3.1 405B可與GPT-4o、Claude 3.5 Sonnet和Gemini Ultra等業界頭部模型媲美。

50662272-4a6a-11ef-b8af-92fbcf53809c.png

引用自:https://ai.meta.com/research/publications/the-llama-3-herd-of-models

魔搭社區已提供Llama3.1模型的預訓練權重下載,實測下載速度平均35MB/s。

5096df34-4a6a-11ef-b8af-92fbcf53809c.png

請讀者用下面的命令把Meta-Llama-3.1-8B-Instruct模型的預訓練權重下載到本地待用。

 git clone --depth=1 https://www.modelscope.cn/LLM-Research/Meta-Llama-3.1-8B-Instruct.git

1.2英特爾酷睿Ultra處理器簡介

英特爾酷睿Ultra處理器內置CPU+GPU+NPU 的三大 AI 引擎,賦能AI大模型在不聯網的終端設備上進行推理計算。

1.3Llama3.1模型的INT4量化和本地部署

把Meta-Llama-3.1-8B-Instruct模型的預訓練權重下載到本地后,接下來本文將依次介紹使用optimum-cli工具將Llama3.1模型進行INT4量化,并調用optimum-intel完成Llama3.1模型在英特爾酷睿 Ultra 處理器上的部署。

Optimum Intel作為Transformers和Diffusers庫與Intel提供的各種優化工具之間的接口層,它給開發者提供了一種簡便的使用方式,讓這兩個庫能夠利用Intel針對硬件優化的技術,例如:OpenVINO、IPEX等,加速基于Transformer或Diffusion構架的AI大模型在英特爾硬件上的推理計算性能。

Optimum Intel代碼倉鏈接:https://github.com/huggingface/optimum-intel

1.3.1搭建開發環境

請下載并安裝Anaconda,然后用下面的命令創建并激活名為llama31的虛擬環境,然后安裝Optimum Intel和其依賴項openvino與nncf。

conda create -n llama31 python=3.11  #創建虛擬環境
conda activate llama31     #激活虛擬環境
python -m pip install --upgrade pip  #升級pip到最新版本
pip install optimum-intel[openvino,nncf] #安裝Optimum Intel和其依賴項openvino與nncf
pip install -U transformers    #升級transformers庫到最新版本

51234654-4a6a-11ef-b8af-92fbcf53809c.png

1.3.2用optimum-cli

對Llama3.1模型進行INT4量化

optimum-cli是Optimum Intel自帶的跨平臺命令行工具,可以不用編寫量化代碼,用命令實現對Llama3.1模型的量化并轉化為OpenVINO格式模型:

optimum-cli export openvino --model D:Meta-Llama-3.1-8B-Instruct --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.8 --sym llama31_int4

optimum-cli命令的參數意義如下:

--model指定了被量化的模型路徑;

--task指定了任務類型;

--weight-format指定了模型參數精度;

--group-size定義了量化過程中的組大??;

--ratio決定了量化過程中保留的權重比例;

--sym表示量化采用的對稱性模式。

51430a5c-4a6a-11ef-b8af-92fbcf53809c.png

1.3.3編寫推理程序llama31_ov_infer.py

基于Optimum Intel工具包的API函數編寫Llama3的推理程序,非常簡單,只需五行代碼:

1. 調用OVModelForCausalLM.from_pretrained()載入使用optimum-cli優化過的模型

2. 調用AutoTokenizer.from_pretrained()載入模型的分詞器

3. 創建一個用于文本生成的pipeline(流水線)

4. 使用pipeline進行推理計算

5. 輸出生成的文本結果

Llama3.1模型的推理計算程序如下所示:

# 導入所需的庫和模塊
from transformers import AutoConfig, AutoTokenizer, pipeline
from optimum.intel.openvino import OVModelForCausalLM
# 設置OpenVINO編譯模型的配置參數,這里優先考慮低延遲
config = {
  "PERFORMANCE_HINT": "LATENCY",       # 性能提示選擇延遲優先
  "CACHE_DIR": ""               # 模型緩存目錄為空,使用默認位置
}
# 指定llama3.1 INT4模型的本地路徑
model_dir = r"D:llama31_int4"


# 設定推理設備為GPU,可根據實際情況改為"CPU"或"AUTO"
DEVICE = "GPU"
# 輸入的問題示例,可以更改
question = "In a tree, there are 7 birds. If 1 bird is shot, how many birds are left?"
# 載入使用optimum-cli優化過的模型,配置包括設備、性能提示及模型配置
ov_model = OVModelForCausalLM.from_pretrained(
  model_dir,
  device=DEVICE,
  ov_config=config,
  config=AutoConfig.from_pretrained(model_dir, trust_remote_code=True), # 加載模型配置,并信任遠程代碼
  trust_remote_code=True,
)
# 根據模型目錄加載tokenizer,并信任遠程代碼
tok = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
# 創建一個用于文本生成的pipeline,指定模型、分詞器以及最多生成的新token數
pipe = pipeline("text-generation", model=ov_model, tokenizer=tok, max_new_tokens=100)
# 使用pipeline對問題進行推理
results = pipe(question)
# 打印生成的文本結果
print(results[0]['generated_text'])

運行llama31_ov_infer.py,結果如下所示:

516d1c02-4a6a-11ef-b8af-92fbcf53809c.png

1.4構建基于Llama3.1模型的聊天機器人

請先安裝依賴軟件包:

pip install gradio mdtex2html streamlit -i https://mirrors.aliyun.com/pypi/simple/

然后運行:python llama31_chatbot.py,結果如下所示:

5192cbbe-4a6a-11ef-b8af-92fbcf53809c.png

1.5總結

基于OpenVINO的Optimum Intel工具包簡單易用,僅需一個命令即可實現LLama3.1模型INT4量化,五行代碼即可完成推理程序開發并本地化運行在英特爾酷睿 Ultra 處理器上。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19714

    瀏覽量

    232727
  • 英特爾
    +關注

    關注

    61

    文章

    10135

    瀏覽量

    173511
  • 模型
    +關注

    關注

    1

    文章

    3461

    瀏覽量

    49774
  • Meta
    +關注

    關注

    0

    文章

    298

    瀏覽量

    11651

原文標題:五行代碼實現Llama3.1在英特爾? 酷睿? Ultra處理器上的部署

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    英特爾的十款嵌入式智能處理器

    英特爾公司今日宣布,英特爾面向嵌入式市場為全新2010英特爾? ?
    發表于 07-29 06:13

    凌華科技發布兩款基于最新的英特爾? ?處理器的模塊化電腦

    多任務以及卓越的每瓦性能摘要:●基于第13代英特爾? ?處理器,具有先進的混合架構,提供性能核心和能效核心,并優化了功耗oExpress-RLP: COM.0 R
    發表于 02-15 10:30

    英特爾12代處理器規格曝光

    按照計劃,英特爾最早將在今年年底推出12代英特爾處理器,這代處理器采用全新Alder Lak
    的頭像 發表于 01-20 10:59 ?8007次閱讀
    <b class='flag-5'>英特爾</b>12代<b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>處理器</b>規格曝光

    英特爾發布新一代移動端處理器——Ultra系列

     12月7日的聯想集團“AI PC 產業創新論壇”上,英特爾中國區技術總經理高宇透露,新一代 Ultra
    的頭像 發表于 12-14 17:14 ?2108次閱讀

    英特爾Arrow Lake處理器更名Ultra

    @金豬升級包強調Arrow Lake處理器不太可能被稱為15代,更有可能會被冠名為“Ultra
    的頭像 發表于 03-04 16:45 ?1670次閱讀

    英特爾推出面向邊緣市場的 / Ultra 處理器PS系列

    其中,Ultra處理器PS系列即為Meteor Lake PS,提供45瓦 and 15瓦兩個功率選項。主打款為英特爾
    的頭像 發表于 04-09 16:45 ?1257次閱讀

    英特爾二季度對Ultra處理器供應受限

    英特爾首席執行官帕特·基辛格最新的財報電話會議上透露,受晶圓級封裝產能限制,二季度Ultra處理器
    的頭像 發表于 05-06 11:04 ?821次閱讀

    英特爾Ultra處理器突破500個AI模型優化

    英特爾最新推出的英特爾? ? Ultra處理器
    的頭像 發表于 05-09 11:18 ?962次閱讀

    已有超過500款AI模型英特爾Ultra處理器上得以優化運行

    近日,英特爾宣布全新英特爾 Ultra處理器
    的頭像 發表于 05-11 09:31 ?983次閱讀

    英特爾Ultra處理器上優化和部署YOLOv8模型

    英特爾 Ultra處理器英特爾公司推出的一個高端處理
    的頭像 發表于 05-30 17:16 ?2650次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b><b class='flag-5'>處理器</b>上優化和<b class='flag-5'>部署</b>YOLOv8<b class='flag-5'>模型</b>

    英特爾Ultra處理器出貨量預計飆升

    英特爾中國區董事長王銳近日透露,英特爾Ultra處理器自問世以來,已經
    的頭像 發表于 06-20 09:23 ?970次閱讀

    英特爾Ultra 200V系列處理器發布

    英特爾近日隆重推出了其革命性的Ultra 200V系列處理器,這一全新x86處理器家族以超高
    的頭像 發表于 09-10 16:44 ?880次閱讀

    英特爾發布Ultra 200S系列臺式機處理器

    近日,英特爾正式推出了Ultra 200S系列處理器家族,為臺式機平臺帶來了全新的AI PC功能。此次發布的
    的頭像 發表于 10-11 17:36 ?747次閱讀

    英特爾CES 2025發布全新Ultra處理器

    近日,萬眾矚目的國際消費電子展(CES 2025)上,英特爾再次展現了其科技領域的領導地位,發布了全新的英特爾?
    的頭像 發表于 01-10 13:57 ?855次閱讀

    英特爾Ultra AI PC上部署多種圖像生成模型

    全新英特爾Ultra 200V系列處理器對比上代Meteor Lake,升級了模塊化結構、封裝工藝,采用全新性能核與能效核、
    的頭像 發表于 04-02 15:47 ?249次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b> AI PC上<b class='flag-5'>部署</b>多種圖像生成<b class='flag-5'>模型</b>
    主站蜘蛛池模板: 欧美一级视频高清片 | 三级毛片在线免费观看 | 日本免费网| 日韩中文字幕第一页 | 日韩一级黄色录像 | 亚洲欧美日本视频 | 四虎影院色 | 天堂bt资源在线官网 | 国产精品久久精品福利网站 | 日本在线一级 | 另类视频色综合 | 久久777国产线看观看精品卜 | 久久亚洲精品成人综合 | 在线观看视频一区二区 | 亚洲国内精品自在线影视 | 国产三级精品在线观看 | 男人边吃奶边爱边做视频日韩 | 日韩啪啪片 | 黄色爽视频 | 兔费看全黄三级 | 国产精品亚洲一区二区三区在线播放 | 欧美性猛交xxxx乱大交中文 | 色av.com| 免费又爽又黄禁片视频在线播放 | 午夜大片男女免费观看爽爽爽尤物 | 丁香婷五月 | 亚洲国产精品热久久2022 | 788gao这里只有精品 | 黄色网址中文字幕 | 国产成人v爽在线免播放观看 | 日本大片免aaa费观看视频 | 亚洲精品久久久久久久蜜桃 | 天天怕夜夜怕狠狠怕 | 免费高清特级毛片 | 日一日操一操 | 天天干天天要 | 农村的毛片丨级 | 欧美一级做一a做片性视频 欧美一级做一级做片性十三 | 国产一级一片免费播放视频 | 操日韩| 日本黄色影片在线观看 |