在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

快速下載OpenVIN Notebooks中的AI大模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2023-12-16 10:22 ? 次閱讀

作者:楊雪鋒 博士

英特爾邊緣計算創新大使

01OpenVINO Notebooks 簡介

OpenVINO Notebooks 是 Jupyter Notebook 形式的 OpenVINO 范例程序大集合,方便開發者快速學習并掌握 OpenVINO 推理程序,并通過 Copy&Paste 方式將范例中的關鍵程序應用到自己的 AI 軟件中去。

01運行 AI 大模型的挑戰

OpenVINO Notebooks 提供了非常豐富的 AI 大模型范例程序,例如:Dolly2、Stable Diffusion、LLama2、ChatGLM2 等等,方便廣大開發者學習并應用 AI 大模型。

但運行 AI 大模型范例程序時,由于眾所周知的原因,通常會遇到因無法從 HuggingFace 官網下載模型,導致范例程序無法運行的情況。

以 240-dolly-2-instruction-following.ipynb 為例,運行“Download and Convert Model”代碼時會收到報錯信息,如下圖所示:

fa4f1e70-9b41-11ee-8b88-92fbcf53809c.png

鑒于直接從 HuggingFace 官網無法下載 AI 大模型,可以考慮使用國內的兩個下載速度非常好的網站:

一個是HuggingFace 的國內鏡像網站;另一個是魔搭社區。

本文將演示分別從HuggingFace 的國內鏡像網站和魔搭社區來解決下載 AI 大模型問題。

03從HuggingFace 國內鏡像網站

解決下載問題

3.1命令行模式

第一步,安裝下載工具:

pip install -U huggingface_hub hf_transfer

左滑查看更多

第二步,設置環境變量

Linux中,執行:

export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

在Windows中,執行:

SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com

左滑查看更多

第三步,運行下載命令,下載模型到本地

huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b

左滑查看更多

fa5c7fc0-9b41-11ee-8b88-92fbcf53809c.png

3.2用下載器下載

在模型頁面,右鍵菜單啟動:“多選下載模式”,如下圖所示。

模型頁面:

fa7c4562-9b41-11ee-8b88-92fbcf53809c.png

然后選擇所有要下載的文件,最后按“Enter”啟動下載。

faa46ca4-9b41-11ee-8b88-92fbcf53809c.png

實際測試,迅雷下載的方式,速度最快,平均在 6MB/s 左右。

facc62cc-9b41-11ee-8b88-92fbcf53809c.png

3.3從本地加載模型權重

將 dolly-v2-3b 下載到本地后,把 model_id 改為 model_local_path, 讓程序從本地加載模型權重,例如:

model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)

左滑查看更多

在 240-dolly-2-instruction-following.ipynb 中“Download and Convert Model”代碼塊更改如下所示:

from pathlib import Path
from transformers import AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


model_id = "databricks/dolly-v2-3b"
model_local_path = "D:/dolly-v2-3b"
model_path = Path("dolly-v2-3b")
tokenizer = AutoTokenizer.from_pretrained(model_local_path,local_file_only=True)
current_device = device.value
ov_config = {'PERFORMANCE_HINT': 'LATENCY', 'NUM_STREAMS': '1', "CACHE_DIR": ""}
if model_path.exists():
  ov_model = OVModelForCausalLM.from_pretrained(model_path, device=current_device, ov_config=ov_config)
else:
  ov_model = OVModelForCausalLM.from_pretrained(model_local_path, device=current_device, export=True, ov_config=ov_config, load_in_8bit=False,local_file_only=True)
  ov_model.half()
  ov_model.save_pretrained(model_path)

左滑查看更多

240-dolly-2-instruction-following.ipynb 從本地加載模型的運行效果,如下圖所示:

fae8d4e8-9b41-11ee-8b88-92fbcf53809c.png

04從魔搭社區解決下載問題

4.1使用 modelscope API 下載模型

第一步,安裝 modelscope:

pip install modelscope

左滑查看更多

第二步,運行 Python 腳本,下載模型到本地

from modelscope import snapshot_download 
model_dir = snapshot_download("ZhipuAI/chatglm2-6b", revision = "v1.0.12")
print(model_dir)

左滑查看更多

下載速度非???,模型保存在“model_dir”所展示的路徑里,如下圖所示。

fb00a9c4-9b41-11ee-8b88-92fbcf53809c.png

4.2使用 git lfs工具下載

git lfs install 
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

左滑查看更多

4.3從本地加載模型權重

打開 OpenVINO Notebooks 的 254-llm-chatbot.ipynb,把本地模型所在路徑傳入 AutoModelForCausalLM.from_pretrained(),如下圖所示:

fb1d77a2-9b41-11ee-8b88-92fbcf53809c.png

#從本地載入分詞器
tok = AutoTokenizer.from_pretrained("D:/chatglm2-6b", trust_remote_code=True)

左滑查看更多

254-llm-chatbot.ipynb 從本地加載模型的運行結果,如下圖所示:

fb3e29ac-9b41-11ee-8b88-92fbcf53809c.png

總 結

當遇到從 HuggingFace 官網無法下載 AI 大模型時,可以從國內鏡像網站或魔搭社區下載,然后從本地加載模型權重,實現 OpenVINO Notebooks 的范例代碼順利運行。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    10017

    瀏覽量

    172424
  • AI
    AI
    +關注

    關注

    87

    文章

    31710

    瀏覽量

    270493
  • 大模型
    +關注

    關注

    2

    文章

    2602

    瀏覽量

    3214
  • OpenVINO
    +關注

    關注

    0

    文章

    97

    瀏覽量

    242
  • AI大模型
    +關注

    關注

    0

    文章

    322

    瀏覽量

    355

原文標題:快速下載 OpenVINO? Notebooks 中的 AI 大模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發表于 03-14 07:09

    STM CUBE AI錯誤導入onnx模型報錯的原因?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發表于 05-27 07:15

    聆思CSK6視覺語音大模型AI開發板入門資源合集(硬件資料、大模型語音/多模態交互/英語評測SDK合集)

    豐富外設配件 配套多模態應用示例,支持快速上手體驗大模型語音交互、智能視覺等 AI 應用 板載 DAPLINK 調試器,外接一條USB 線即可實現燒錄、調試、串口日志查看 板載網絡模組,支持開發聯網類
    發表于 06-18 17:33

    AI模型可以設計電路嗎?

    AI模型
    電子發燒友網官方
    發布于 :2024年01月02日 15:09:29

    AI模型怎么解決芯片過剩?

    AI模型
    電子發燒友網官方
    發布于 :2024年01月02日 15:42:05

    AI模型可以取代大學教育嗎?

    AI模型
    電子發燒友網官方
    發布于 :2024年01月02日 16:27:52

    AI算法中比較常用的模型都有什么?

    AI算法中比較常用的模型都有什么
    發表于 08-27 09:19

    【KV260視覺入門套件試用體驗】Vitis AI 構建開發環境,并使用inspector檢查模型

    量化 七、Vitis AI 通過遷移學習訓練自定義模型 八、Vitis AI 將自定義模型編譯并部署到KV260 鋪墊 Vitis
    發表于 10-14 15:34

    如何使用NVIDIA TAO快速準確地訓練AI模型

    利用 NVIDIA TLT 快速準確地訓練人工智能模型的探索表明,人工智能在工業過程具有巨大的潛力。
    的頭像 發表于 04-20 17:45 ?2904次閱讀
    如何使用NVIDIA TAO<b class='flag-5'>快速</b>準確地訓練<b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    AI模型和小模型是什么?AI模型和小模型的區別

      隨著人工智能的不斷發展和應用,機器學習模型的大小越來越成為一個重要的問題。在機器學習,我們通常將模型分為兩類:大模型和小模型。本文將介
    發表于 08-08 16:55 ?9685次閱讀

    OpenVIN賦能BLIP實現視覺語言AI邊緣部署

    ,使用 OpenVINO 輕松文生圖》,我們介紹了利用OpenVINO 運行Stable Diffusion模型,快速實現文生圖應用。讓人人可以成為繪畫大師,利用AI隨心作畫。
    的頭像 發表于 09-04 10:54 ?1w次閱讀
    <b class='flag-5'>OpenVIN</b>賦能BLIP實現視覺語言<b class='flag-5'>AI</b>邊緣部署

    如何快速下載OpenVINO NotebooksAI模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便開發者快速學習并掌握OpenVINO推理程序,并通過Copy&Paste方式將范例的關鍵程序應用到自己的
    的頭像 發表于 12-12 14:40 ?1239次閱讀
    如何<b class='flag-5'>快速</b><b class='flag-5'>下載</b>OpenVINO <b class='flag-5'>Notebooks</b><b class='flag-5'>中</b>的<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>

    AI模型在MCU的應用

    機遇。將AI模型集成到MCU,不僅提升了設備的智能化水平,還使得設備能夠執行更復雜的任務,實現自主決策和實時響應。本文將從AI模型在MCU
    的頭像 發表于 07-12 10:24 ?1156次閱讀

    AI模型在自然語言處理的應用

    AI模型在自然語言處理(NLP)的應用廣泛且深入,其強大的語義理解和生成能力為NLP任務帶來了顯著的性能提升。以下是對AI模型在NLP
    的頭像 發表于 10-23 14:38 ?669次閱讀

    AI模型市場分析

    隨著人工智能技術的快速發展,AI模型已成為全球科技競爭的新高地、未來產業的新賽道以及經濟發展的新引擎。下面,AI部落小編分析了當前AI
    的頭像 發表于 11-01 09:51 ?231次閱讀
    主站蜘蛛池模板: 九色国产在视频线精品视频 | 二级特黄绝大片免费视频大片 | 免费一级毛片在线播放不收费 | 色婷婷综合缴情综六月 | 三级网站在线看 | 一区二区三区亚洲视频 | 国产精品9999久久久久仙踪林 | 欧美成人亚洲 | 亚洲色图综合网站 | 免费观看国产网址你懂的 | 天天综合色一区二区三区 | 涩999| 天天操精品 | 免费一级欧美片在线观看 | 色视频www在线播放国产人成 | 天天操夜夜欢 | aa黄色大片| 视频免费1区二区三区 | 国产一级aa大片毛片 | 国产偷窥女洗浴在线观看亚洲 | 天天摸夜夜摸成人免费视频 | 精品国产一区二区三区国产馆 | 久久精品午夜视频 | www天天操| 日本在线观看成人小视频 | 国产精品理论片在线观看 | 天堂视频在线观看 | 狠狠色成色综合网 | 性欧美高清极品猛交 | 久久综合操 | 亚洲欧美日韩另类精品一区二区三区 | 亚洲日韩色图 | xxxx人成高清免费图片 | 国卡一卡二卡三免费网站 | 狠狠干狠狠插 | 曰本a| 久久精品99无色码中文字幕 | se01亚洲 | 极品国产一区二区三区 | 婷婷六月综合网 | 久久国产精品99精品国产987 |