隨著深度求索(DeepSeek)大模型的發布引發行業熱議,研華科技基于昇騰Atlas平臺邊緣AI Box MIC-ATL3S正式發布與Deepseek R1模型的部署流程。該平臺依托昇騰芯片的強大異構計算能力,結合研華邊緣AI Box高可靠特點,通過模型輕量化、算子適配等技術實現大模型邊緣端部署。
硬件部署/
CPU:Atlas 310P
10個DaVinciV200 AI core,主頻最高達1.08GHz
16個64位TaishanV200M處理器核,核主頻最高1.9GHz
8個DaVinciV200 Vector core,主頻最高達1GHz
AI算力:176TOPS INT8
操作系統:OpenEuler
模型:DeepSeek-R1
推理模型/
根據MIC-ATL3S硬件規格,我們選取了DeepSeek-R1-Distill-Qwen-1.5B這個精度和對硬件配置要求相對平衡的蒸餾模型進行適配和部署。
部署步驟/
昇騰310P + openEuler22.03部署deepseek-R1
1. 安裝驅動包以及CANN
前往昇騰社區獲當前芯片版本的驅動、FW、以及CANN(昇騰異構計算架構)
driver:Ascend-hdk-310p-npu-driver_xxxxx_linux-aarch64_chip-enable.run Firmware:Ascend-hdk-310p-npu-firmware_xxxxx_chip-enable.run CANN:Ascend-cann-toolkit_xxxxx_linux-aarch64.run
2. 安裝依賴組件
3. 安裝mindspore (昇思模型框架)
4. DeepSeek-R1模型拉取
拉取模型指令,以1.5B為例
yum install git-lfs -y git lfs install git clone https://ai.gitee.com/hf-models/DeepSeek-R1-Distill-Qwen-1.5B
克隆完成示例如下,包含HF完整的倉庫:
5. 模型轉換
下載后的模型為safetensors格式,還不能直接使用,先用transformers轉換為ONNX格式,再使用atc轉換為OM(昇騰)格式才能使用。
創建python腳本將safetensors格式轉換為ONNX格式,最終轉換為OM格式。
執行腳本后會生成對應模型文件,生成對應格式模型文件 執行:
Python3 convert.py ./convert.sh
最后,需要用一個簡單的python腳本去做互動窗口,運行指令:python3 deepseek_r1.py
示例:
總結:目前研華進行MIC-ATL3S適配更多Deepseek模型,以及與生態伙伴展開具體應用場景測試,后續我們會持續公布研華邊緣AI平臺產品的部署&測試內容,敬請關注。
研華昇騰310系列邊緣AI平臺
研華基于昇騰Atlas 310系列平臺開發出三款不同形態的邊緣AI產品:工業標準化AI模組、邊緣AI開發套件以及邊緣AI盒子。此系列產品算力高達176 Tops,專注于工業場景下的細分應用。同時,在軟件方面,研華聚焦底層開發,定期更新SDK套件以滿足客戶的開發需求,并自主研發工業領域遠程部署和管理工具。
-
AI
+關注
關注
88文章
34781瀏覽量
277160 -
研華
+關注
關注
0文章
420瀏覽量
39266 -
昇騰
+關注
關注
1文章
158瀏覽量
6946 -
DeepSeek
+關注
關注
1文章
790瀏覽量
1559
原文標題:研華正式發布國產化昇騰AI Box與Deepseek R1模型部署全流程!
文章出處:【微信號:研華智能地球,微信公眾號:研華智能地球】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試
RK3588開發板上部署DeepSeek-R1大模型的完整指南
添越智創基于 RK3588 開發板部署測試 DeepSeek 模型全攻略
IBM在watsonx.ai平臺推出DeepSeek R1蒸餾模型
了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇
DeepSeek模型成功部署,物通博聯在 AI 賦能工業上持續探索、不斷前行
Gitee AI 聯合沐曦首發全套 DeepSeek R1 千問蒸餾模型,全免費體驗!

部署DeepSeek R1于AX650N與AX630C平臺

評論