在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英特爾開發套件使用OpenVINO? C# API部署Yolov8模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2023-10-13 16:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

bcd17478-699e-11ee-939d-92fbcf53809c.png

英特爾發行版OpenVINO工具套件[1]基于 oneAPI 而開發,可以加快高性能計算機視覺深度學習視覺應用開發速度工具套件,適用于從邊緣到云的各種英特爾平臺上,幫助用戶更快地將更準確的真實世界結果部署到生產系統中。通過簡化的開發工作流程,OpenVINO 可賦能開發者在現實世界中部署高性能應用程序和算法

C# 是由 C 和 C++ 衍生出來的一種安全的、穩定的、簡單的、優雅的面向對象編程語言。C# 綜合了 VB 簡單的可視化操作和 C++ 的高運行效率,以其強大的操作能力、優雅的語法風格、創新的語言特性和便捷的面向組件編程的支持成為 .NET 開發的首選語言。然而OpenVINO 未提供 C# 語言接口,這對在 C# 中使用OpenVINO 帶來了很多麻煩,在之前的工作中,我們推出了OpenVINO C# API[2],旨在推動OpenVINO在 C# 領域的應用,目前已經成功在 Window 平臺實現使用。在本文中,我們將介紹如何在 英特爾開發套件 AlxBoard 上基于 Linux 系統實現 OpenVINO C# API。

項目中所使用的代碼已上傳至 OpenVINO C# API 倉庫中,GitHub 網址為:

https://github.com/guojin-yan/OpenVINO-CSharp-API/blob/csharp3.0/tutorial_examples/AlxBoard_deploy_yolov8/Program.cs

(復制鏈接到瀏覽器打開)

1. 英特爾開發套件 AlxBoard 介紹

bcdc31c4-699e-11ee-939d-92fbcf53809c.png

圖1 英特爾開發套件 AlxBoard介紹

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

1.1 產品定位

英特爾開發套件AlxBoard 是英特爾開發套件官方序列中的一員,專為入門級人工智能應用和邊緣智能設備而設計。英特爾開發套件 AlxBoard 能完美勝人工智能學習、開發、實訓、應用等不同應用場景。該套件預裝了英特爾 OpenVINO 工具套件、模型倉庫和演示。

套件主要接口與 Jetson Nano 載板兼容,GPIO 與樹莓派兼容,能夠最大限度地復用成熟的生態資源。這使得套件能夠作為邊緣計算引擎,為人工智能產品驗證和開發提供強大支持;同時,也可以作為域控核心,為機器人產品開發提供技術支撐。

使用英特爾開發套件 AlxBoard,您將能夠在短時間內構建出一個出色的人工智能應用應用程序。無論是用于科研、教育還是商業領域,英特爾開發套件 AlxBoard 都能為您提供良好的支持。借助OpenVINO工具套件,CPU、iGPU都具備強勁的AI推理能力,支持在圖像分類、目標檢測、分割和語音處理等應用中并行運行多個神經網絡

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

1.2 產品參數

bd18c4ea-699e-11ee-939d-92fbcf53809c.png

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

1.3 AI 推理單元

借助 OpenVINO 工具,能夠實現 CPU+iGPU 異構計算推理,IGPU 算力約為 0.6TOPS

bd4b0446-699e-11ee-939d-92fbcf53809c.png

2. 配置 .NET 環境

.NET是一個免費的跨平臺開源開發人員平臺,用于構建多種應用程序。下面將演示英特爾開發套件 AlxBoard如何在Ubuntu 20.04上安裝.NET 環境,支持.NET Core 2.0-3.1系列以及.NET 5-8系列,如果你的英特爾開發套件 AlxBoard使用的是其他 Linux 系統,你可以參考在Linux發行版上安裝.NET - .NET | Microsoft Learn[3]

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.1 添加Microsoft包存儲庫

使用APT進行安裝可通過幾個命令來完成。安裝.NET之前,請運行以下命令,將Microsoft包簽名密鑰添加到受信任密鑰列表,并添加包存儲庫。

打開終端并運行以下命令:

wget https://packages.microsoft.com/config/ubuntu/20.04/packages-microsoft-prod.deb -O packages-microsoft-prod.deb
sudo dpkg -i packages-microsoft-prod.deb
rm packages-microsoft-prod.deb

下圖為輸入上面命令后控制臺的輸出:

bd6d1f5e-699e-11ee-939d-92fbcf53809c.png

圖21.2.1添加Microsoft包存儲庫輸出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.2 安裝 SDK

.NET SDK使你可以通過.NET開發應用。如果安裝.NET SDK,則無需安裝相應的運行時。若要安裝.NET SDK,請運行以下命令:

sudo apt-get update
sudo apt-get install -y dotnet-sdk-3.1

下圖為安裝后控制臺的輸出:

bd8f8d6e-699e-11ee-939d-92fbcf53809c.png

圖3安裝SDK輸出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.3 測試安裝

通過命令行可以檢查SDK版本以及 Runtime 時版本。

dotnet --list-sdks
dotnet --list-runtimes

下圖為輸入測試命令后控制臺的輸出:

bdb2ad58-699e-11ee-939d-92fbcf53809c.png

圖4SDK版本以及 Runtime 版本

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.4 測試控制臺項目

在 linux 環境下,我們可以通過 dotnet 命令來創建和編譯項目,項目創建命令為:

dotnet new  -o 

此處我們創建一個簡單測試控制臺項目:

dotnet new console -o test_net6.0
cd test_net6.0
dotnet run

下圖為輸入測試命令后控制臺的輸出以及項目文件夾文件情況,C# 項目會自動創建一個 Program.cs 程序文件,里面包含了程序運行入口主函數,同時還會創建一個 *.csproj 文件,負責指定項目編譯中的一些配置。

bddf80da-699e-11ee-939d-92fbcf53809c.pngbe0293cc-699e-11ee-939d-92fbcf53809c.png

圖5控制臺項目

以上就是 .NET 環境的配置步驟,如果你的環境與本文不匹配,可以通過.NET文檔| Microsoft Learn[4]獲取更多安裝步驟。

3. 安裝OpenVINO Runtime

OpenVINO有兩種安裝方式: OpenVINO Runtime 和OpenVINO Development Tools。OpenVINO Runtime 包含用于在處理器設備上運行模型部署推理的核心庫。OpenVINO Development Tools 是一組用于處理 OpenVINO 和 OpenVINO 模型的工具,包括模型優化器、OpenVINO Runtime、模型下載器等。在此處我們只需要安裝 OpenVINO Runtime 即可。

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.1下載OpenVINO Runtime

訪問Download the Intel Distribution of OpenVINO Toolkit[5]頁面,按照下面流程選擇相應的安裝選項,在下載頁面,由于我們的設備使用的是 Ubuntu20.04,因此下載時按照指定的編譯版本下載即可。

be1e4eb4-699e-11ee-939d-92fbcf53809c.pngbe3d408a-699e-11ee-939d-92fbcf53809c.png

圖6OpenVINO Runtime下載

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.2 解壓安裝包

我們所下載的OpenVINO Runtime本質是一個 C++ 依賴包,因此我們把它放到我們的系統目錄下,這樣在編譯時會根據設置的系統變量獲取依賴項。首先在系統文件夾下創建一個文件夾:

sudo mkdir -p /opt/intel

然后解壓縮我們下載的安裝文件,并將其移動到指定文件夾下:

tar -xvzf l_openvino_toolkit_ubuntu20_2022.3.1.9227.cf2c7da5689_x86_64.tgz
sudo mv l_openvino_toolkit_ubuntu20_2022.3.1.9227.cf2c7da5689_x86_64 /opt/intel/openvino_2023.1

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.3 安裝依賴

接下來我們需要安裝OpenVINO Runtime所有的依賴項,通過命令行輸入以下命令即可:

cd /opt/intel/openvino_2022.3.1/
sudo -E ./install_dependencies/install_openvino_dependencies.sh
be6b53bc-699e-11ee-939d-92fbcf53809c.png

圖7安裝 OpenVINO Runtime 依賴項

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.4 配置環境變量

安裝完成后,我們需要配置環境變量,以保證在調用時系統可以獲取對應的文件,通過命令行輸入以下命令即可:

source /opt/intel/openvino_2022.3.1/setupvars.sh

以上就是OpenVINO Runtime環境的配置步驟,如果你的環境與本文不匹配,可以通過Install OpenVINO Runtime on Linux — OpenVINO documentation — Version(2023.1) [6]獲取更多安裝步驟。

配置AlxBoard_deploy_yolov8項目

項目中所使用的代碼已經放在 GitHub 倉庫AlxBoard_deploy_yolov8[7],大家可以根據情況自行下載和使用,下面我將會從頭開始一步步構建 AlxBoard_deploy_yolov8 項目。

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

4.1創建AlxBoard_deploy_yolov8項目

在該項目中,我們需要使用 OpenCvSharp,該依賴目前在 Ubutun 平臺最高可以支持 .NET Core 3.1,因此我們此處創建一個 .NET Core 3.1 的項目,使用 Terminal 輸入以下指令創建并打開項目文件:

dotnet new console --framework "netcoreapp3.1" -o AlxBoard_deploy_yolov8
cd AlxBoard_deploy_yolov8

be9e48e4-699e-11ee-939d-92fbcf53809c.png

圖81.4.1創建AlxBoard_deploy_yolov8項目

創建完項目后,將 AlxBoard_deploy_yolov8 的代碼內容替換到創建的項目中的 Program.cs 文件中.

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

4.2添加OpenVINO C# API 依賴

由于 OpenVINO C# API當前正處于開發階段,還未創建 Linux 版本的 NuGet Package,因此需要通過下載項目源碼以項目引用的方式使用。

下載源碼

通過 Git 下載項目源碼,新建一個 Terminal,并輸入以下命令克隆遠程倉庫,將該項目放置在 AlxBoard_deploy_yolov8 同級目錄下。

git clone https://github.com/guojin-yan/OpenVINO-CSharp-API.git
cd OpenVINO-CSharp-API

本文的項目目錄為:

Program
--|-AlxBoard_deploy_yolov8
--|-OpenVINO-CSharp-API

修改 OpenVINO依賴

由于項目源碼的 OpenVINO依賴與本文設置不同,因此需要修改 OpenVINO依賴項的路徑,主要通過修改OpenVINO-CSharp-API/src/CSharpAPI/native_methods/ov_base.cs 文件即可,修改內容如下:

rivate const string dll_extern = "./openvino2023.1/openvino_c.dll";
---修改為--->
private const string dll_extern = "libopenvino_c.so";

添加項目依賴

在 Terminal 輸入以下命令,即可將 OpenVINO C# API 添加到 AlxBoard_deploy_yolov8 項目引用中。

dotnet add reference ./../OpenVINO-CSharp-API/src/CSharpAPI/CSharpAPI.csproj

添加環境變量

該項目需要調用 OpenVINO 動態鏈接庫,因此需要在當前環境下增加 OpenVINO 動態鏈接庫路徑:

export LD_LIBRARY_PATH=/opt/intel/openvino_2023.0/runtime/lib/intel64

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

4.3添加 OpenCvSharp

安裝 NuGet Package

OpenCvSharp 可以通過 NuGet Package 安裝,只需要在 Terminal 輸入以下命令:

dotnet add package OpenCvSharp4_.runtime.ubuntu.20.04-x64
dotnet add package OpenCvSharp4

添加環境變量

將以下路徑添加到環境變量中:

export LD_LIBRARY_PATH=/home/ygj/Program/OpenVINO-CSharp-API/tutorial_examples/AlxBoard_deploy_yolov8/bin/Debug/netcoreapp3.1/runtimes/ubuntu.20.04-x64/native

/bin/Debug/netcoreapp3.1/runtimes/ubuntu.20.04-x64/native 是 AlxBoard_deploy_yolov8 編譯后生成的路徑,該路徑下存放了 libOpenCvSharpExtern.so 文件,該文件主要是封裝的 OpenCV 中的各種接口。也可以將該文件拷貝到項目運行路徑下。

檢測 libOpenCvSharpExtern 依賴

由于 libOpenCvSharpExtern.so 是在其他環境下編譯好的動態鏈接庫,本機電腦可能會缺少相應的依賴,因此可以通過 ldd 命令檢測。

ldd libOpenCvSharpExtern.so

becb2472-699e-11ee-939d-92fbcf53809c.png

圖9檢測 libOpenCvSharpExtern 依賴

如果輸出內容中沒有 no found 的,說明不缺少依賴,如果存在,則需要安裝缺少的依賴項才可以正常使用。

添加完項目依賴以及 NuGet Package 后,項目的配置文件內容為:

"Microsoft.NET.Sdk">
 
  "..OpenVINO-CSharp-APIsrcCSharpAPICSharpAPI.csproj" />
 
 
  "OpenCvSharp4" Version="4.8.0.20230708" />
  "OpenCvSharp4_.runtime.ubuntu.20.04-x64" Version="4.8.0.20230708" />
 
 
  Exe
  netcoreapp3.1
 

5. 運行 AlxBoard_deploy_yolov8項目

該項目測試所使用的模型與文件都可以在 OpenVINO-CSharp-API 中找到,因此下面我們通過 OpenVINO-CSharp-API 倉庫下的模型與文件進行測試。

通過 dotnet 運行,只需要運行以下命令即可。

dotnet run 

參數設指的是模型預測類型、模型路徑、圖片文件路徑參數,預測類型輸入包括:'det'、'seg'、'pose'、'cls'四種類型;默認推理設備設置為'AUTO',對于'det'、'seg'預測,可以設置參數,如果設置該參數,會將結果繪制到圖片上,如果未設置,會通過控制臺打印出來。

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.1編譯運行Yolov8-det模型

編譯運行命令為:

dotnet run det /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg GPU.0 /home/ygj/Program/OpenVINO-CSharp-API/dataset/lable/COCO_lable.txt

模型推理輸出結果為:

---- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s.xml
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 640, 640]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 84, 8400]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg


Detection result : 


1: 0 0.89  (x:744 y:43 width:388 height:667)
2: 0 0.88  (x:149 y:202 width:954 height:507)
3:270.72(x:435y:433width:98height:284)

bef206a0-699e-11ee-939d-92fbcf53809c.jpg

圖10Yolov8-det模型預測輸出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.2編譯運行Yolov8-cls模型

編譯運行命令為:

dotnet run cls /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-cls.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_7.jpg GPU.0

模型推理輸出結果為:

--- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-cls.xml
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 224, 224]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 1000]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_7.jpg




Classification Top 10 result : 


classid probability
------- -----------
294   0.992173
269   0.002861
296   0.002111
295   0.000714
270   0.000546
276   0.000432
106   0.000159
362   0.000147
260   0.000078
272   0.000070

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.3編譯運行Yolov8-pose模型

編譯運行命令為:

dotnet run pose /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-pose.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_9.jpg GPU.0

模型推理輸出結果為:

---- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-pose.xml
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 640, 640]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 56, 8400]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_9.jpg




Classification result : 


1: 1  0.94  (x:104 y:22 width:152 height:365) Nose: (188 ,60 ,0.93) Left Eye: (192 ,53 ,0.83) Right Eye: (180 ,54 ,0.90) Left Ear: (196 ,53 ,0.50) Right Ear: (167 ,56 ,0.76) Left Shoulder: (212 ,92 ,0.93) Right Shoulder: (151 ,93 ,0.94) Left Elbow: (230 ,146 ,0.90) Right Elbow: (138 ,142 ,0.93) Left Wrist: (244 ,199 ,0.89) Right Wrist: (118 ,187 ,0.92) Left Hip: (202 ,192 ,0.97) Right Hip: (168 ,193 ,0.97) Left Knee: (184 ,272 ,0.96) Right Knee: (184 ,276 ,0.97) Left Ankle: (174 ,357 ,0.87) Right Ankle: (197 ,354 ,0.88) 

bf2c40ae-699e-11ee-939d-92fbcf53809c.jpg

圖11Yolov8-pose模型預測輸出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.4運行Yolov8-seg模型

編譯運行命令為:

dotnet run seg /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-seg.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg GPU.0 /home/ygj/Program/OpenVINO-CSharp-API/dataset/lable/COCO_lable.txt

模型推理輸出結果為:

---- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-seg.xml
47
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 640, 640]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 116, 8400]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg




Segmentation result : 


1: 0 0.90  (x:745 y:42 width:403 height:671)
2: 0 0.86  (x:121 y:196 width:1009 height:516)
3: 27 0.69  (x:434 y:436 width:90 height:280)

bf42831e-699e-11ee-939d-92fbcf53809c.jpg

圖12Yolov8-seg模型預測輸出

6. 模型運行時間

英特爾開發套件 AlxBoard 板載了英特爾賽揚 N5105 CPU 以及英特爾 11 代集成顯卡,此處對 CPU、GPU 的推理情況做了一個簡單測試,主要檢測了模型推理時間,并使用英特爾幻影峽谷進行了同步測試,測試結果如表所示。

bf582e8a-699e-11ee-939d-92fbcf53809c.png

可以看出,英特爾賽揚 N5105 CPU 在模型推理性能是十分強大的,且搭配的英特爾 11 代集成顯卡,將推理速度提升了 6 倍左右,針對 Yolov8 模型,平均處理速度可以達到 10FPs。而相比于幻影峽谷的推理速度,英特爾開發套件 AlxBoard 推理性能大約為其五分之一,這相比一般的開發板,英特爾開發套件 AlxBoard 的算力還是十分強大的。

總結

在該項目中,我們基于 Ubutn 20.04系統,成功實現了在 C# 環境下調用 OpenVINO 部署深度學習模型,驗證了在 Linux 環境下 OpenVINO C# API 項目的的可行性,這對后面在 Linux 環境下開發 OpenVINO C# API 具有很重要的意義。

除此之外,我們還使用 OpenVINO C# API 檢驗了英特爾開發套件 AlxBoard 的模型推理能力,最總針對 Yolov8模型,平均處理速度可以達到 10FPs,這對目前大多數開發板來說,已經達到了很高的推理速度。后續我還會將繼續使用 OpenVINO C# API 在 英特爾開發套件 AlxBoard 部署更多的深度學習模型。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    10185

    瀏覽量

    174218
  • API
    API
    +關注

    關注

    2

    文章

    1566

    瀏覽量

    63690
  • 深度學習
    +關注

    關注

    73

    文章

    5557

    瀏覽量

    122610

原文標題:英特爾開發套件使用 OpenVINO? C# API 部署 Yolov8 模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于C#OpenVINO?在英特爾獨立顯卡上部署PP-TinyPose模型

    作者:英特爾物聯網行業創新大使 楊雪鋒 OpenVINO 2022.2版開始支持英特爾獨立顯卡,還能通過“累計吞吐量”同時啟動集成顯卡 + 獨立顯卡助力全速 AI 推理。本文基于 C#
    的頭像 發表于 11-18 18:27 ?2979次閱讀

    英特爾BOOT Loader開發套件-高級嵌入式開發基礎

    從技術角度概括介紹用于快速開發部署啟動加載器的英特爾 Boot Loader 開發套件(英特爾 BLDK),該
    發表于 12-07 14:57 ?59次下載
    <b class='flag-5'>英特爾</b>BOOT Loader<b class='flag-5'>開發套件</b>-高級嵌入式<b class='flag-5'>開發</b>基礎

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8分類模型

    本系列文章將在 AI 愛克斯開發板上使用 OpenVINO 開發套件依次部署并測評 YOLOv8 的分類
    的頭像 發表于 05-05 11:47 ?1311次閱讀
    在AI愛克斯<b class='flag-5'>開發</b>板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv8</b>分類<b class='flag-5'>模型</b>

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8目標檢測模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛克斯開發板上使用
    的頭像 發表于 05-12 09:08 ?1721次閱讀
    在AI愛克斯<b class='flag-5'>開發</b>板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv8</b>目標檢測<b class='flag-5'>模型</b>

    AI愛克斯開發板上使用OpenVINO加速YOLOv8目標檢測模型

    《在AI愛克斯開發板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛克斯開發板上使用Open
    的頭像 發表于 05-26 11:03 ?1737次閱讀
    AI愛克斯<b class='flag-5'>開發</b>板上使用<b class='flag-5'>OpenVINO</b>加速<b class='flag-5'>YOLOv8</b>目標檢測<b class='flag-5'>模型</b>

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8-seg實例分割模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 目標檢測模型》介紹了在 AI 愛克斯開發板上使用
    的頭像 發表于 06-05 11:52 ?1421次閱讀
    在AI愛克斯<b class='flag-5'>開發</b>板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv8</b>-seg實例分割<b class='flag-5'>模型</b>

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8-seg實例分割模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 目標檢測模型》介紹了在 AI 愛克斯開發板上使用
    的頭像 發表于 06-30 10:43 ?1727次閱讀
    在AI愛克斯<b class='flag-5'>開發</b>板上用<b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv8</b>-seg實例分割<b class='flag-5'>模型</b>

    三種主流模型部署框架YOLOv8推理演示

    深度學習模型部署OpenVINO、ONNXRUNTIME、TensorRT三個主流框架,均支持Python與C++的SDK使用。對YOLOv
    的頭像 發表于 08-06 11:39 ?3145次閱讀

    使用OpenVINO優化并部署訓練好的YOLOv7模型

    在《英特爾銳炫 顯卡+ oneAPI 和 OpenVINO 實現英特爾 視頻 AI 計算盒訓推一體-上篇》一文中,我們詳細介紹基于英特爾 獨立顯卡搭建
    的頭像 發表于 08-25 11:08 ?1973次閱讀
    使用<b class='flag-5'>OpenVINO</b>優化并<b class='flag-5'>部署</b>訓練好的<b class='flag-5'>YOLOv</b>7<b class='flag-5'>模型</b>

    基于OpenVINO英特爾開發套件上實現眼部追蹤

    本文將以訓練一個眼部追蹤 AI 小模型為背景,介紹從 Pytorch 自定義網絡模型,到使用 OpenVINO NNCF 量化工具優化模型,并部署
    的頭像 發表于 09-18 10:11 ?989次閱讀

    基于OpenVINO C# API部署RT-DETR模型

    Python API 部署 RT-DETR 模型 | 開發者實戰》和《基于 OpenVINO C
    的頭像 發表于 11-10 16:59 ?1142次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    OpenVINO C# API在intel平臺部署YOLOv10目標檢測模型

    模型設計策略,從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了性能。在本文中,我們將結合OpenVINO C# API使用最新發布的
    的頭像 發表于 06-21 09:23 ?1874次閱讀
    用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b>在intel平臺<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>10目標檢測<b class='flag-5'>模型</b>

    【轉載】英特爾開發套件“哪吒”快速部署YoloV8 on Java | 開發者實戰

    OpenVINO 工具套件基于OneAPI開發,可以加快高性能計算機視覺和深度學習應用開發速度的工具套件,適用于從邊緣到云的各種
    的頭像 發表于 03-23 08:05 ?1028次閱讀
    【轉載】<b class='flag-5'>英特爾</b><b class='flag-5'>開發套件</b>“哪吒”快速<b class='flag-5'>部署</b><b class='flag-5'>YoloV8</b> on Java | <b class='flag-5'>開發</b>者實戰

    基于哪吒開發部署YOLOv8模型

    2024英特爾 “走近開發者”互動活動-哪吒開發套件免費試 用 AI 創新計劃:哪吒開發板是專為支持入門級邊緣 AI 應用程序和設備而設計,能夠滿足人工智能學習、
    的頭像 發表于 11-15 14:13 ?1017次閱讀
    基于哪吒<b class='flag-5'>開發</b>板<b class='flag-5'>部署</b><b class='flag-5'>YOLOv8</b><b class='flag-5'>模型</b>

    C#中使用OpenVINO?:輕松集成AI模型

    作者:算力魔方創始人/英特爾創新大使劉力 C#不僅在PC游戲開發、大型商業系統領域應用廣泛,還成為開源測控、機器視覺與運動控制,以及PC數集與分析領域中的主流開發語言! 在開源測控、機
    的頭像 發表于 02-07 14:05 ?786次閱讀
    <b class='flag-5'>C#</b>中使用<b class='flag-5'>OpenVINO</b>?:輕松集成AI<b class='flag-5'>模型</b>!
    主站蜘蛛池模板: 日本黄在线 | 免费v片网站 | 国产黄色小视频 | 网站免费黄 | a级黑粗大硬长爽猛视频毛片 | 天天干天天爽 | aaa网站| 国产单男 | 免费毛片网站 | 天堂网www在线资源网 | 国产黄大片在线观看 | 1024你懂的国产欧美日韩在 | 久久视频精品线视频在线网站 | 天天天天做夜夜夜做 | 精品福利在线观看 | 亚洲国产婷婷综合在线精品 | 国产在线色视频 | 人人天天爱天天做天天摸 | 亚洲综合色一区 | 天天插天天爽 | 视频一区视频二区在线观看 | 欧美黑人xxxx猛牲大交 | 亚洲偷图色综合色就色 | 男人j桶女人j免费视频 | 天堂成人精品视频在线观 | 你懂的网站在线 | 国产yw855.c免费观看网站 | 99久久综合精品免费 | 日韩在线免费看网站 | 午夜天堂影院 | 免费看一级视频 | 91大神免费视频 | 三级免费黄录像 | 黑人又大又粗又长又深受不了 | 天天尻 | 久久久久免费 | 成人精品一区二区不卡视频 | 精品国产1000部91麻豆 | 韩国三级视频在线观看 | 婷婷丁香亚洲 | 超大乳抖乳露双乳视频 |