在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡單三步在Windows上調用低功耗NPU部署AI模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-02-22 17:17 ? 次閱讀

相信很多小伙伴都已經知道,在最新一代的英特爾 酷睿 Ultra 移動端處理中已經集成了被稱為 NPU 的神經網絡加速處理器,以提供低功耗的 AI 算力,特別適合于 PC 端需要長時間穩定運行的 AI 輔助功能,例如會議聊天軟件中的自動摳像,或是畫面超分辨率等應用。而 OpenVINO 工具套件也在第一時間對 NPU 進行了適配,接下來就讓我們一起看一下如何在英特爾 酷睿 Ultra 處理器上搭建基礎環境,并調用 NPU 進行模型推理任務。

NPU 驅動安裝

首先我們需要確保是否安裝了最新版的 NPU 驅動,可以通過 Windows 任務管理調出當前 NPU 驅動版本信息

7f01b5f0-d162-11ee-a297-92fbcf53809c.jpg

圖:NPU 在 Windows 任務管理器中顯示驅動版本

查詢當前最新的 NPU 驅動版本:

https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html

7f1ff6a0-d162-11ee-a297-92fbcf53809c.png

圖:NPU 驅動下載頁面

如果想更新或是重裝 NPU 驅動,可以參考以下指引下載并安裝驅動:

https://docs.openvino.ai/2023.3/openvino_docs_install_guides_configurations_for_intel_npu.html

OpenVINO 的下載和安裝

由于目前 NPU Plugin 還沒有被集成在 OpenVINO 的 PyPI 安裝包中,因此我們需要通過下載 OpenVINO runtime 壓縮包的方式進行安裝。

7f35a298-d162-11ee-a297-92fbcf53809c.png

圖:OpenVINO 下載頁面

整個安裝過程非常簡單,只需將壓縮包解壓到在本地路徑下即可。具體方法可以參考上圖標紅處的安裝說明。

7f5bbdd4-d162-11ee-a297-92fbcf53809c.png

圖:將壓縮包解壓至本地路徑

Python 環境配置

通過執行壓縮包中的 setupvars.bat 環境配置腳本,我們便可以直接在 Python 環境下加載 OpenVINO runtime 和 NPU Plugin 環境。同時利用 OpenVINO 的 Python API 指令,我們可以快速驗證 NPU 是否可以被正常調用。

7fbe5232-d162-11ee-a297-92fbcf53809c.jpg

圖:Python 環境中驗證 NPU 調用

C++ 環境配置

不同于 Python,Windows 上的 C++ 應用需要依賴于 CMake 或者是 Visual Studio 的環境下調試,因此這里我們需要簡單配置下 OpenVINO 庫的路徑。下面以 Visual Studio 中新建項目的屬性配置頁面為例。

7fd6349c-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 頭文件路徑

7ff36080-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 動態庫路徑

800aead4-d162-11ee-a297-92fbcf53809c.png

圖:配置 OpenVINO runtime 及 frontednd 靜態庫路徑

80332d0a-d162-11ee-a297-92fbcf53809c.png

圖:在 Windows 本地添加 OpenVINO 環境變量路徑

當完成 Visual Studio 項目屬性配置后,我們可以通過調試以下示例代碼,測試 NPU 是否可以被檢測及調用。

#include 
#include 


int main(int argc, char* argv[]) {


  // -------- Get OpenVINO runtime version --------
  std::cout << ov::get_openvino_version() << std::endl;


 ? ?// -------- Step 1. Initialize OpenVINO Runtime Core --------
 ? ?ov::Core core;


 ? ?// -------- Step 2. Get list of available devices --------
 ? ?std::vector availableDevices = core.get_available_devices();


  // -------- Step 3. Query and print supported metrics and config keys --------
  std::cout << "available devices: " << std::endl;
 ? ?for (auto&& device : availableDevices) {
 ? ? ? ?std::cout << device << std::endl;
 ? ?}
}

805d6408-d162-11ee-a297-92fbcf53809c.png

圖:VS 環境中驗證 NPU 調用

測試效果

當完成 NPU 安裝后,我們可以通過 OpenVINO notebooks 中提供的示例,簡單測試下 NPU 的性能。這個示例會通過以下 Python 代碼來將模型部署在 NPU 上。

compiled_model = core.compile_model("model.xml", "NPU")

8077ab42-d162-11ee-a297-92fbcf53809c.png

圖:實時人體關鍵點演示效果

可以看到 NPU 在運行實時人體關鍵點檢測模型時的效果和速度還是非常不錯的,達到了 90FPS 的吞吐量,同時推理任務幾乎也沒有占用 CPU 額外的資源,真正做到了在提供高算力的同時,減輕 CPU 和 GPU 的任務負載。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4781

    瀏覽量

    101193
  • python
    +關注

    關注

    56

    文章

    4808

    瀏覽量

    85051
  • 加速處理器
    +關注

    關注

    0

    文章

    8

    瀏覽量

    6458
  • NPU
    NPU
    +關注

    關注

    2

    文章

    292

    瀏覽量

    18798

原文標題:簡單三步在 Windows 上調用低功耗 NPU 部署 AI 模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    企業AI模型部署攻略

    當下,越來越多的企業開始探索和實施AI模型,以提升業務效率和競爭力。然而,AI模型部署并非易事,需要企業
    的頭像 發表于 12-23 10:31 ?183次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數據源的邊緣設備上運行。這不僅減少了數據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,邊緣端部署高效且準確的目標檢測模型
    發表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    更適合生產環境的框架來部署。此外,許多推理引擎和硬件加速器也支持ONNX格式,從而進一加快了模型部署的速度。 凌智視覺模塊中
    發表于 12-06 17:20

    AI模型部署和管理的關系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發表于 11-21 10:02 ?221次閱讀

    如何在STM32f4系列開發板上部署STM32Cube.AI

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經過開發板處理器進行AI
    發表于 11-18 09:39

    AI模型托管原理分析

    AI模型托管是指將訓練好的AI模型部署云端或邊緣服務器上,由第
    的頭像 發表于 11-07 09:33 ?251次閱讀

    企業AI模型部署怎么做

    AI模型部署作為這一轉型過程中的關鍵環節,其成功實施對于企業的長遠發展至關重要。在此,AI部落小編為您介紹企業AI
    的頭像 發表于 11-04 10:15 ?206次閱讀

    使用OpenVINO 2024.4算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3算力魔方的本地量化和部署》。2024年9月25日,Meta又發布了Llama3.2:一個多語言大型語言模型(LLMs)的集合。
    的頭像 發表于 10-12 09:39 ?724次閱讀
    使用OpenVINO 2024.4<b class='flag-5'>在</b>算力魔方上<b class='flag-5'>部署</b>Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    NVIDIA NIM助力企業高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺集成了 NVIDIA NIM,將允許用戶通過 API 調用來大規模地部署大語言模型
    的頭像 發表于 10-10 09:49 ?452次閱讀

    利用恩智浦云實驗室部署AI模型

    如今,人工智能(AI)非常火爆,這個風口該如何把握?作為一個電子工程師,和AI最主要的交集應該就是邊緣計算了,具體來講,就是一些性能、功耗以及價格相對較低的嵌入式平臺上
    的頭像 發表于 08-02 11:46 ?2886次閱讀
    利用恩智浦云實驗室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    基于RK3588的NPU案例分享!6T是真的強!

    ,使用RKNN-Toolkit2將預訓練模型轉換為RK3588 NPU可使用的RKNN模型。這通常涉及到將模型中的計算圖進行適當的修改和優化,以適應
    發表于 07-17 10:55

    低功耗模型主板:ROC-RK3576-PC

    采用八核64位AIOT處理器RK3576,采用大小核構架(4×A72+4×A53),采用先進制程工藝,高性能低功耗,內置ARMMaliG52MC3GPU,集成6TOPS算力NPU,支持
    的頭像 發表于 05-30 08:02 ?1113次閱讀
    <b class='flag-5'>低功耗</b>大<b class='flag-5'>模型</b>主板:ROC-RK3576-PC

    實測NPU“空轉”,AI PC首個落地應用只調用GPU?

    AI PC的一大特征是傳統PC的CPU+GPU基礎上,增加NPU加強AI 算力。不過有意思的是,最近某品牌PC機型上的AI助手率先落地,支
    的頭像 發表于 05-22 00:16 ?3302次閱讀

    簡單三步使用OpenVINO?搞定ChatGLM3的本地部署

    英特爾 OpenVINO? 工具套件是一款開源 AI 推理優化部署的工具套件,可幫助開發人員和企業加速生成式人工智能 (AIGC)、大語言模型、計算機視覺和自然語言處理等 AI 工作負
    的頭像 發表于 04-03 18:18 ?2217次閱讀
    <b class='flag-5'>簡單</b><b class='flag-5'>三步</b>使用OpenVINO?搞定ChatGLM3的本地<b class='flag-5'>部署</b>

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE
    發表于 03-15 08:10
    主站蜘蛛池模板: 午夜三级网站 | 1024视频色版在线网站 | 三级视频网站在线观看 | 被啪漫画羞羞漫画 | 激情五月婷婷基地 | 亚洲综合色吧 | 噜噜噜色网 | 怡红院最新网址 | 波多野结衣一级特黄毛片 | 视频在线观看高清免费看 | 四虎影视永久地址 | vr性资源在线观看 | 黄页在线播放网址 | 成人午夜大片免费看爽爽爽 | 在线免费观看h视频 | 五月天亚洲婷婷 | 久久国产福利 | 日本黄色大片在线播放视频免费观看 | 在线你懂的视频 | 日本一区二区三区不卡在线视频 | 一区二区三区四区视频在线观看 | 中文字幕人成不卡一区 | 国产一级久久免费特黄 | 大象焦伊人久久综合网色视 | 久草在线资源网 | 好大好硬好深好爽的视频 | 日本一本一道久久香蕉免费 | 欧美精品一二区 | 天天爱夜夜爽 | 天天在线天天综合网色 | 国产三片理论电影在线 | 热久久最新视频 | 午夜在线播放 | 色妞综合| 日本又粗又长一进一出抽搐 | 每日最新avhd101天天看新片 | 欧美午夜色大片在线观看免费 | 美女黄18以下禁止观看的网站 | 久久国产成人精品国产成人亚洲 | 视频在线欧美 | 国产三级观看久久 |