在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在英特爾酷睿Ultra AI PC上用NPU部署YOLOv11與YOLOv12

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2025-03-03 15:32 ? 次閱讀

作者:

顏國(guó)進(jìn) 英特爾邊緣計(jì)算創(chuàng)新大使

李翊瑋英特爾開發(fā)者技術(shù)推廣工程師

最新的英特爾 酷睿 Ultra 處理器(第二代)讓我們能夠在臺(tái)式機(jī)、移動(dòng)設(shè)備和邊緣中實(shí)現(xiàn)大多數(shù) AI 體驗(yàn),將 AI 加速提升到新水平,在 AI 時(shí)代為邊緣計(jì)算提供動(dòng)力。英特爾 酷睿 Ultra 處理器提供了一套全面的專為 AI 定制的集成計(jì)算引擎,包括 CPUGPU 和 NPU,提供高達(dá) 99 總平臺(tái) TOPS。近期,YOLO系列模型發(fā)布了YOLOv12, 對(duì) YOLO 框架進(jìn)行了全面增強(qiáng),特別注重集成注意力機(jī)制,同時(shí)又不犧牲 YOLO 模型所期望的實(shí)時(shí)處理能力,是 YOLO 系列的一次進(jìn)化,突破了人工視覺的極限。

本文中,我們將使用英特爾 酷睿 Ultra 處理器AI PC設(shè)備,結(jié)合OpenVINO C# API 使用最新發(fā)布的OpenVINO 2025.0 部署YOLOv11 和 YOLOv12 目標(biāo)檢測(cè)模型,并在AIPC設(shè)備上,進(jìn)行速度測(cè)試:

OpenVINO C# API項(xiàng)目鏈接:

https://github.com/guojin-yan/OpenVINO-CSharp-API.git

本文使用的項(xiàng)目源碼鏈接為:

https://github.com/guojin-yan/YoloDeployCsharp/blob/yolov1/demo/yolo_openvino_demo/

1前言

1.1 英特爾 酷睿 Ultra 處理器(第二代)

全新英特爾 酷睿 Ultra 200V系列處理器對(duì)比上代 Ultra 100,升級(jí)了模塊化結(jié)構(gòu)、封裝工藝,采用全新性能核與能效核、英特爾硬件線程調(diào)度器、Xe2微架構(gòu)銳炫GPU、第四代NPU…由此也帶來了CPU性能提升18%,GPU性能提升30%,整體功耗降低50%,以及120TOPS平臺(tái)AI算力。

酷睿Ultra 200V系列處理器共有9款SKU,包括1款酷睿Ultra 9、4款酷睿Ultra 7以及4款酷睿Ultra 5,全系8核心8線程(4個(gè)性能核與4個(gè)能效核),具體規(guī)格如下:

5d413260-f5b5-11ef-9310-92fbcf53809c.jpg

作為新一代旗艦,酷睿Ultra 9 288V性能核頻率最高5.1GHz、能效核頻率最高3.7GHz,擁有12MB三級(jí)緩存。GPU方面,集成銳炫140V顯卡,擁有8個(gè)全新Xe2核心、8個(gè)光線追蹤單元,頻率最高2.05GHz,可以實(shí)現(xiàn)67TOPSAI算力。而NPU集成6個(gè)第四代神經(jīng)計(jì)算引擎,AI算力提升至48TOPS。

在當(dāng)前項(xiàng)目測(cè)試,使用的是英特爾 酷睿 Ultra 9 288V設(shè)備,處理器信息如下表所示:

5d6a779c-f5b5-11ef-9310-92fbcf53809c.png

1.2 OpenVINO C# API

英特爾發(fā)行版 OpenVINO 工具套件基于 oneAPI 而開發(fā),可以加快高性能計(jì)算機(jī)視覺深度學(xué)習(xí)視覺應(yīng)用開發(fā)速度工具套件,適用于從邊緣到云的各種英特爾平臺(tái)上,幫助用戶更快地將更準(zhǔn)確的真實(shí)世界結(jié)果部署到生產(chǎn)系統(tǒng)中。通過簡(jiǎn)化的開發(fā)工作流程,OpenVINO 可賦能開發(fā)者在現(xiàn)實(shí)世界中部署高性能應(yīng)用程序和算法

OpenVINO 2025.0版本在生成式AI和硬件支持方面實(shí)現(xiàn)了多項(xiàng)重大突破。生成式AI推理速度大幅提升,特別是Whisper語音模型和圖像修復(fù)技術(shù)的加速,讓AI應(yīng)用的實(shí)時(shí)性和效率得到顯著改善。同時(shí),新增支持Qwen 2.5和DeepSeek-R1等中文大模型,優(yōu)化了長(zhǎng)文本處理和7B模型的推理吞吐量。在硬件方面,新一代酷睿Ultra和Xeon處理器帶來了更強(qiáng)的FP16推理能力,同時(shí)OpenVINO還推出了全球首個(gè)支持torch.compile的NPU后端,提升了異構(gòu)計(jì)算能力。GPU優(yōu)化和Windows Server原生支持也讓硬件性能得到更大釋放,邊緣計(jì)算領(lǐng)域的優(yōu)化使IoT設(shè)備能效大幅提高。

OpenVINO C# API 是一個(gè) OpenVINO 的 .Net wrapper,應(yīng)用最新的 OpenVINO 庫開發(fā),通過 OpenVINO C API 實(shí)現(xiàn) .Net 對(duì) OpenVINO Runtime 調(diào)用,使用習(xí)慣與 OpenVINO C++ API 一致。OpenVINO C# API 由于是基于 OpenVINO 開發(fā),所支持的平臺(tái)與 OpenVINO 完全一致,具體信息可以參考 OpenVINO。通過使用 OpenVINO C# API,可以在 .NET、.NET Framework等框架下使用 C# 語言實(shí)現(xiàn)深度學(xué)習(xí)模型在指定平臺(tái)推理加速。

下表為當(dāng)前發(fā)布的 OpenVINO C# API NuGet Package,支持多個(gè)目標(biāo)平臺(tái),可以通過NuGet一鍵安裝所有依賴。

5d93cd72-f5b5-11ef-9310-92fbcf53809c.png

5da91eb6-f5b5-11ef-9310-92fbcf53809c.png

1.3 YOLOv11與YOLOv12

YOLO系列目標(biāo)檢測(cè)模型自2016年提出以來,始終以"實(shí)時(shí)檢測(cè)"為核心優(yōu)勢(shì),通過端到端架構(gòu)和網(wǎng)格化預(yù)測(cè)思想,在目標(biāo)檢測(cè)領(lǐng)域持續(xù)引領(lǐng)技術(shù)革新。從YOLOv1的7x7網(wǎng)格基礎(chǔ)框架,到Y(jié)OLOv8的骨干網(wǎng)絡(luò)優(yōu)化,再到Y(jié)OLOv10的C3K2模塊創(chuàng)新,該系列通過特征提取增強(qiáng)、后處理優(yōu)化和計(jì)算效率提升,不斷突破速度與精度的平衡極限。

YOLOv11特色由Ultralytics公司開發(fā),通過改進(jìn)CSPNet主干網(wǎng)絡(luò)和頸部架構(gòu),實(shí)現(xiàn)參數(shù)精簡(jiǎn)與精度提升的雙重突破。其核心創(chuàng)新在于:

增強(qiáng)型特征提取:采用跨階段特征融合技術(shù),在復(fù)雜場(chǎng)景中捕捉細(xì)微目標(biāo)特征

動(dòng)態(tài)計(jì)算優(yōu)化:通過自適應(yīng)計(jì)算分配策略,在保持45ms推理速度的同時(shí),mAP提升3.2%

輕量化設(shè)計(jì):相比YOLOv8減少18%參數(shù)量,更適合邊緣設(shè)備部署

YOLOv12的開發(fā)人員通過其最新模型在開創(chuàng)性版本中樹立了計(jì)算機(jī)視覺領(lǐng)域的新標(biāo)準(zhǔn)。YOLOv12 以其無與倫比的速度、準(zhǔn)確性和多功能性而聞名,是 YOLO 系列的一次進(jìn)化,突破了人工視覺的極限。YOLOv12 對(duì) YOLO 框架進(jìn)行了全面增強(qiáng),特別注重集成注意力機(jī)制,同時(shí)又不犧牲 YOLO 模型所期望的實(shí)時(shí)處理能力。

以注意力為中心的設(shè)計(jì):YOLOv12 具有區(qū)域注意力模塊,該模塊通過分割特征圖來保持效率,將計(jì)算復(fù)雜度降低一半,同時(shí)使用 FlashAttention 來緩解實(shí)時(shí)檢測(cè)的內(nèi)存帶寬限制。

分層結(jié)構(gòu):該模型采用殘差高效層聚合網(wǎng)絡(luò)(R-ELAN)來優(yōu)化特征集成并減少梯度阻塞,并簡(jiǎn)化了最后階段以實(shí)現(xiàn)更輕、更快的架構(gòu)。

架構(gòu)增強(qiáng):通過用 7x7 可分離卷積取代傳統(tǒng)位置編碼,YOLOv12 有效地保留了位置信息。自適應(yīng) MLP 比率可以更好地分配計(jì)算資源,在實(shí)時(shí)約束下支持多樣化數(shù)據(jù)集。

訓(xùn)練和優(yōu)化:該模型使用 SGD 和自定義學(xué)習(xí)計(jì)劃訓(xùn)練了 600 多個(gè)時(shí)期,實(shí)現(xiàn)了高精度。它采用 Mosaic 和 Mixup 等數(shù)據(jù)增強(qiáng)技術(shù)來提高泛化能力,從而提升了 YOLOv12 快速、準(zhǔn)確檢測(cè)物體的能力。

兩代模型分別代表了YOLO系列在傳統(tǒng)架構(gòu)優(yōu)化與新型注意力機(jī)制融合兩個(gè)方向的最新突破,其中YOLOv12更開創(chuàng)性地將Transformer優(yōu)勢(shì)融入實(shí)時(shí)檢測(cè)框架,標(biāo)志著該系列進(jìn)入"注意力增強(qiáng)"新階段。

2模型獲取

2.1 配置環(huán)境

安裝模型下載以及轉(zhuǎn)換環(huán)境,此處使用Anaconda進(jìn)行程序集管理,輸入以下指令創(chuàng)建一個(gè)yolo環(huán)境:

conda create -n yolo python=3.10
conda activate yolo
pip install ultralytics

5dc31438-f5b5-11ef-9310-92fbcf53809c.png

2.2 下載并轉(zhuǎn)換ONNX模型

首先導(dǎo)出目標(biāo)識(shí)別模型,此處以官方預(yù)訓(xùn)練模型為例,目前ultralytics已經(jīng)集成了,依次輸入以下指令即可:

yolo export model=yolo11s.pt format=onnx

5de41638-f5b5-11ef-9310-92fbcf53809c.png

目前OpenVINO支持直接調(diào)用ONNX模型,因此此處只導(dǎo)出ONNX模型即可,如需要導(dǎo)出OpenVINO格式的模型,可以參考OpenVINO官方文檔。

3Yolo 項(xiàng)目配置

3.1 項(xiàng)目創(chuàng)建與環(huán)境配置

在Windows平臺(tái)開發(fā)者可以使用Visual Studio平臺(tái)開發(fā)程序,但無法跨平臺(tái)實(shí)現(xiàn),為了實(shí)現(xiàn)跨平臺(tái),此處采用dotnet指令進(jìn)行項(xiàng)目的創(chuàng)建和配置。

首先使用dotnet創(chuàng)建一個(gè)測(cè)試項(xiàng)目,在終端中輸入一下指令:

dotnet new console --framework net8.0 --use-program-main -o yolo_sample

此處以Windows平臺(tái)為例安裝項(xiàng)目依賴,首先是安裝OpenVINO C# API項(xiàng)目依賴,在命令行中輸入以下指令即可:

dotnet add package OpenVINO.CSharp.API
dotnet add package OpenVINO.runtime.win
dotnet add package OpenVINO.CSharp.API.Extensions
dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp

關(guān)于在不同平臺(tái)上搭建 OpenVINO C# API 開發(fā)環(huán)境請(qǐng)參考以下文章:

在Windows上搭建OpenVINOC#開發(fā)環(huán)境

https://github.com/guojin-yan/OpenVINO-CSharp-API/blob/csharp3.1/docs/inatall/Install_OpenVINO_CSharp_Windows_cn.md

Linux上搭建OpenVINOC#開發(fā)環(huán)境

https://github.com/guojin-yan/OpenVINO-CSharp-API/blob/csharp3.1/docs/inatall/Install_OpenVINO_CSharp_Linux_cn.md

在MacOS上搭建OpenVINOC#開發(fā)環(huán)境

https://github.com/guojin-yan/OpenVINO-CSharp-API/blob/csharp3.1/docs/inatall/Install_OpenVINO_CSharp_MacOS_cn.md

接下來安裝使用到的圖像處理庫 OpenCvSharp,在命令行中輸入以下指令即可:

dotnet add package OpenCvSharp4
dotnet add package OpenCvSharp4.Extensions
dotnet add package OpenCvSharp4.runtime.win

關(guān)于在其他平臺(tái)上搭建 OpenCvSharp 開發(fā)環(huán)境請(qǐng)參考以下文章:

【OpenCV】在Linux上使用OpenCvSharp

https://mp.weixin.qq.com/s/z6ahGWlkaQs3pUtN15Lzpg

【OpenCV】在MacOS上使用OpenCvSharp

https://mp.weixin.qq.com/s/8njRodtg7lRMggBfpZDHgw

添加完成項(xiàng)目依賴后,項(xiàng)目的配置文件如下所示:




 
  Exe
  net8.0
  enable
  enable
 


 
  
  
  
  
  
 


3.2 定義模型預(yù)測(cè)方法

使用 OpenVINO C# API 部署模型主要包括以下幾個(gè)步驟:

初始化 OpenVINO Runtime Core

讀取本地模型(將圖片數(shù)據(jù)預(yù)處理方式編譯到模型)

將模型編譯到指定設(shè)備

創(chuàng)建推理通道

處理圖像輸入數(shù)據(jù)

設(shè)置推理輸入數(shù)據(jù)

模獲取推理結(jié)果

處理結(jié)果數(shù)據(jù)

按照 OpenVINO C# API 部署深度學(xué)習(xí)模型的步驟,編寫YOLOv10模型部署流程,在之前的項(xiàng)目里,我們已經(jīng)部署了YOLOv5~9等一系列模型,其部署流程是基本一致的,YOLOv10模型部署代碼如下所示:

internal class YoloDet
{
  public static void predict(string model_path, string image_path, string device)
  {
    DateTime start = DateTime.Now;
    // -------- Step 1. Initialize OpenVINO Runtime Core --------
    Core core = new Core();
    DateTime end = DateTime.Now;
    Console.WriteLine("1. Initialize OpenVINO Runtime Core success, time spend: " + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 2. Read inference model --------
    start = DateTime.Now;
    Model model = core.read_model(model_path);
    end = DateTime.Now;
    Console.WriteLine("2. Read inference model success, time spend: " + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 3. Loading a model to the device --------
    start = DateTime.Now;
    CompiledModel compiled_model = core.compile_model(model, device);
    end = DateTime.Now;
    Console.WriteLine("3. Loading a model to the device success, time spend:" + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 4. Create an infer request --------
    start = DateTime.Now;
    InferRequest infer_request = compiled_model.create_infer_request();
    end = DateTime.Now;
    Console.WriteLine("4. Create an infer request success, time spend:" + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 5. Process input images --------
    start = DateTime.Now;
    Mat image = new Mat(image_path); // Read image by opencvsharp
    int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
    Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
    Rect roi = new Rect(0, 0, image.Cols, image.Rows);
    image.CopyTo(new Mat(max_image, roi));
    float factor = (float)(max_image_length / 640.0);
    end = DateTime.Now;
    Console.WriteLine("5. Process input images success, time spend:" + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 6. Set up input data --------
    start = DateTime.Now;
    Tensor input_tensor = infer_request.get_input_tensor();
    Shape input_shape = input_tensor.get_shape();
    Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), new Scalar(), true, false);
    float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
    Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
    input_tensor.set_data(input_data);


    end = DateTime.Now;
    Console.WriteLine("6. Set up input data success, time spend:" + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 7. Do inference synchronously --------
    infer_request.infer();
    start = DateTime.Now;
    infer_request.infer();
    end = DateTime.Now;
    Console.WriteLine("7. Do inference synchronously success, time spend:" + (end - start).TotalMilliseconds + "ms.");
    // -------- Step 8. Get infer result data --------
    start = DateTime.Now;
    Tensor output_tensor = infer_request.get_output_tensor();
    int output_length = (int)output_tensor.get_size();
    float[] output_data = output_tensor.get_data(output_length);
    end = DateTime.Now;
    Console.WriteLine("8. Get infer result data success, time spend:" + (end - start).TotalMilliseconds + "ms.");


    // -------- Step 9. Process reault --------
    start = DateTime.Now;
    // Storage results list
    List position_boxes = new List();
    List class_ids = new List();
    List confidences = new List();
    // Preprocessing output results
    for (int i = 0; i < 8400; i++)
 ? ? ? ?{
 ? ? ? ? ? ?for (int j = 4; j < 84; j++)
 ? ? ? ? ? ?{
 ? ? ? ? ? ? ? ?float conf = output_data[8400 * j + i];
 ? ? ? ? ? ? ? ?int label = j - 4;
 ? ? ? ? ? ? ? ?if (conf > 0.2)
        {
          float cx = output_data[8400 * 0 + i];
          float cy = output_data[8400 * 1 + i];
          float ow = output_data[8400 * 2 + i];
          float oh = output_data[8400 * 3 + i];
          int x = (int)((cx - 0.5 * ow) * factor);
          int y = (int)((cy - 0.5 * oh) * factor);
          int width = (int)(ow * factor);
          int height = (int)(oh * factor);
          Rect box = new Rect(x, y, width, height);
          position_boxes.Add(box);
          class_ids.Add(label);
          confidences.Add(conf);
        }
      }


    }
    // NMS non maximum suppression
    int[] indexes = new int[position_boxes.Count];
    CvDnn.NMSBoxes(position_boxes, confidences, 0.5f, 0.5f, out indexes);


    end = DateTime.Now;
    Console.WriteLine("9. Process reault success, time spend:" + (end - start).TotalMilliseconds + "ms.");
    for (int i = 0; i < indexes.Length; i++)
 ? ? ? ?{
 ? ? ? ? ? ?int index = indexes[i];
 ? ? ? ? ? ?Cv2.Rectangle(image, position_boxes[index], new Scalar(0, 0, 255), 2, LineTypes.Link8);
 ? ? ? ? ? ?Cv2.Rectangle(image, new OpenCvSharp.Point(position_boxes[index].TopLeft.X, position_boxes[index].TopLeft.Y + 30),
 ? ? ? ? ? ? ? ?new OpenCvSharp.Point(position_boxes[index].BottomRight.X, position_boxes[index].TopLeft.Y), new Scalar(0, 255, 255), -1);
 ? ? ? ? ? ?Cv2.PutText(image, class_ids[index] + "-" + confidences[index].ToString("0.00"),
 ? ? ? ? ? ? ? ?new OpenCvSharp.Point(position_boxes[index].X, position_boxes[index].Y + 25),
 ? ? ? ? ? ? ? ?HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
 ? ? ? ?}
 ? ? ? ?string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
 ? ? ? ? ? ?Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
 ? ? ? ?Cv2.ImWrite(output_path, image);
 ? ? ? ?Console.WriteLine("The result save to " + output_path);
 ? ? ? ?Cv2.ImShow("Result", image);
 ? ? ? ?Cv2.WaitKey(0);
 ? ?}
}

接下來就是在C#static void Main(string[] args)方法里調(diào)用該方法,調(diào)用代碼如下所示:

YoloDet.predict("E:/Model/Yolo/yolo11x.onnx", "./demo_2.jpg", "NPU");
YoloDet.predict("E:/Model/Yolo/yolo12x.onnx", "./demo_2.jpg", "CPU");

4項(xiàng)目編譯和運(yùn)行

4.1 項(xiàng)目編譯和運(yùn)行

接下來輸入項(xiàng)目編譯指令進(jìn)行項(xiàng)目編譯,輸入以下指令即可:

dotnet build

接下來運(yùn)行編譯后的程序文件,在CMD中輸入以下指令,運(yùn)行編譯后的項(xiàng)目文件:

dotnet run --no-build

4.2 模型推理效果

下面分別使用x格式的模型演示YOLOv11和YOLOv12模型運(yùn)行結(jié)果:

首先是YOLOv11x模型推理效果,如下圖所示

下面是YOLOv12x模型推理效果,如下圖所示:

5YOLO系列模型推理性能表現(xiàn)

下面四個(gè)表格通過對(duì)YOLOv8、YOLOv11和YOLOv12系列模型在英特爾 酷睿 Ultra 9 288V處理器上推理速度的對(duì)比分析,我們可以看到它們?cè)贑PU、NPU和GPU平臺(tái)上的表現(xiàn)差異。下面將詳細(xì)描述每個(gè)系列在不同硬件平臺(tái)上的推理速度,并對(duì)比其性能。

5e28bdce-f5b5-11ef-9310-92fbcf53809c.png

表 1 YOLOv8全系模型在英特爾 酷睿 Ultra 9 288V 處理器上推理速度

表1列出了YOLOv8全系模型的推理時(shí)間,在YOLOv8系列中,隨著模型復(fù)雜度的增加,推理時(shí)間也隨之增長(zhǎng)。在CPU上,YOLOv8n(最小模型)需要24.78ms,YOLOv8x(最大模型)則達(dá)到629.35ms,推理時(shí)間大幅增加。在NPU上,YOLOv8n的推理時(shí)間為3.60ms,YOLOv8x則為33.72ms。GPU上,YOLOv8n的推理時(shí)間最短,僅為2.64ms,而YOLOv8x則為23.86ms。可以看出,YOLOv8系列在NPU和GPU加速下的表現(xiàn)非常優(yōu)越,特別是YOLOv8n和YOLOv8s,它們?cè)贕PU上的推理時(shí)間僅為2.64ms和4.62ms,顯示了YOLOv8系列在加速硬件上的高效性。

5e3535c2-f5b5-11ef-9310-92fbcf53809c.png

表 2 YOLOv11全系模型在英特爾 酷睿 Ultra 9 288V 處理器上推理速度

表2介紹了YOLOv11系列,YOLOv11系列的推理時(shí)間相較于YOLOv8系列較長(zhǎng),尤其是在CPU上。YOLOv11n在CPU上的推理時(shí)間為19.90ms,相比YOLOv8n的24.78ms稍快;但隨著模型復(fù)雜度增加,YOLOv11x的CPU推理時(shí)間為499.18ms,依然長(zhǎng)于YOLOv8x的629.35ms。NPU加速方面,YOLOv11n的推理時(shí)間為3.97ms,YOLOv11x為38.50ms,雖然NPU加速顯著提升了推理速度,但整體表現(xiàn)遜色于YOLOv8系列。GPU方面,YOLOv11n在GPU上為2.55ms,YOLOv11x為20.40ms,也表現(xiàn)得相對(duì)較慢。

5e441b46-f5b5-11ef-9310-92fbcf53809c.png

表 3 YOLOv12全系模型在英特爾 酷睿 Ultra 9 288V 處理器上推理速度

YOLOv12系列的推理時(shí)間在所有系列中表現(xiàn)較慢,尤其是在CPU上。YOLOv12n的推理時(shí)間為23.31ms,相比YOLOv8n和YOLOv11n都略長(zhǎng),而YOLOv12x的推理時(shí)間為559.51ms,明顯比其他系列的最大模型更慢。在NPU上,YOLOv12n的推理時(shí)間為6.55ms,YOLOv12x為82.29ms,雖然在NPU加速下,推理速度有所提升,但相對(duì)其他系列仍然較慢。YOLOv12系列在推理速度方面的表現(xiàn)整體較為遜色,特別是在沒有GPU加速的情況下。

從推理速度的整體表現(xiàn)來看,YOLOv8系列無疑是表現(xiàn)最好的。YOLOv8在NPU和GPU加速下的推理速度非常高效,尤其是在YOLOv8n和YOLOv8s這兩個(gè)小型模型上,其推理時(shí)間明顯優(yōu)于YOLOv11和YOLOv12系列,且在GPU和NPU加速下依然保持較短的推理時(shí)間。相比之下,YOLOv11系列的表現(xiàn)略遜,雖然NPU加速有助于提升推理速度,但整體推理時(shí)間仍然較長(zhǎng)。

YOLOv12系列則在推理時(shí)間上表現(xiàn)最差,尤其是在沒有GPU加速的情況下,其推理時(shí)間遠(yuǎn)高于YOLOv8和YOLOv11系列。

6總結(jié)

英特爾 酷睿 Ultra 處理器憑借其出色的性能和高效的能耗管理,內(nèi)置的高算力顯卡及神經(jīng)計(jì)算單元(功耗約2W),是深度學(xué)習(xí)和計(jì)算機(jī)視覺應(yīng)用的理想選擇。通過結(jié)合OpenVINO 工具套件和YOLOv11、YOLOv12等先進(jìn)模型,我們可以顯著提升推理性能,并確保在不同計(jì)算單元上高效運(yùn)行。

本文介紹了如何配置開發(fā)環(huán)境、使用C# API進(jìn)行模型部署,以及如何利用處理器的優(yōu)勢(shì)優(yōu)化應(yīng)用程序性能。隨著AI技術(shù)的不斷發(fā)展,英特爾的硬件和軟件工具將繼續(xù)為開發(fā)者提供更強(qiáng)大的支持,推動(dòng)人工智能在各個(gè)領(lǐng)域的應(yīng)用與創(chuàng)新。希望通過本文的學(xué)習(xí),讀者能夠在實(shí)際項(xiàng)目中靈活運(yùn)用這些技術(shù),實(shí)現(xiàn)更高效、更智能的解決方案。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19657

    瀏覽量

    232455
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10119

    瀏覽量

    173419
  • PC
    PC
    +關(guān)注

    關(guān)注

    9

    文章

    2132

    瀏覽量

    155698
  • 酷睿
    +關(guān)注

    關(guān)注

    2

    文章

    437

    瀏覽量

    36719

原文標(biāo)題:開發(fā)者實(shí)戰(zhàn)|在英特爾? 酷睿? Ultra AI PC上用NPU部署YOLOv11與YOLOv12

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    開啟AI PC新紀(jì)元!英特爾Ultra重磅發(fā)布,勝任200億參數(shù)大語言模型

    12月15日下午,以“AI無處不在 創(chuàng)芯無所不及”為主題的2023英特爾新品發(fā)布會(huì)在北京舉辦,英特爾正式推出了基于Intel4制程,采用3D封裝技術(shù)的
    的頭像 發(fā)表于 12-16 15:14 ?2687次閱讀
    開啟<b class='flag-5'>AI</b> <b class='flag-5'>PC</b>新紀(jì)元!<b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b>重磅發(fā)布,勝任200億參數(shù)大語言模型

    為什么Ubuntu20.04使用YOLOv3比Yocto操作系統(tǒng)的推理快?

    使用 2021.4 OpenVINO?中的 GPU 插件運(yùn)行帶有 YOLOv3 模型的 對(duì)象檢測(cè) C++ 演示 。 使用 英特爾? ? i5-1145G7E、
    發(fā)表于 03-05 06:48

    yolov7 onnx模型NPU太慢了怎么解決?

    我將 yolov7tiny.pt(yolov7-tiny 模型)轉(zhuǎn)換為具有 uint8 權(quán)重的 yolov7tiny.onnx,然后 i.MX 8M Plus
    發(fā)表于 04-04 06:13

    AI愛克斯開發(fā)板OpenVINO?加速YOLOv8目標(biāo)檢測(cè)模型

    AI 愛克斯開發(fā)板 OpenVINO 加速 YOLOv8 分類模型》介紹了
    的頭像 發(fā)表于 05-12 09:08 ?1532次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>AI</b>愛克斯開發(fā)板<b class='flag-5'>上</b><b class='flag-5'>用</b>OpenVINO?加速<b class='flag-5'>YOLOv</b>8目標(biāo)檢測(cè)模型

    英特爾新處理器,掀AI PC戰(zhàn)火

    隨著ai時(shí)代的到來,英特爾正在構(gòu)想新的Ultra處理器(代號(hào)Meteor Lake),這是英特爾
    的頭像 發(fā)表于 12-11 11:26 ?1133次閱讀

    英特爾發(fā)布新一代移動(dòng)端處理器——Ultra系列

     12月7日的聯(lián)想集團(tuán)“AI PC 產(chǎn)業(yè)創(chuàng)新論壇”英特爾中國(guó)區(qū)技術(shù)總經(jīng)理高宇透露,新一代
    的頭像 發(fā)表于 12-14 17:14 ?2091次閱讀

    英特爾二季度對(duì)Ultra處理器供應(yīng)受限

    英特爾首席執(zhí)行官帕特·基辛格最新的財(cái)報(bào)電話會(huì)議透露,受晶圓級(jí)封裝產(chǎn)能限制,二季度Ultra
    的頭像 發(fā)表于 05-06 11:04 ?807次閱讀

    英特爾Ultra處理器突破500個(gè)AI模型優(yōu)化

    英特爾最新推出的英特爾? ? Ultra處理器
    的頭像 發(fā)表于 05-09 11:18 ?939次閱讀

    已有超過500款AI模型英特爾Ultra處理器上得以優(yōu)化運(yùn)行

    近日,英特爾宣布全新英特爾 Ultra處理器
    的頭像 發(fā)表于 05-11 09:31 ?951次閱讀

    英特爾Ultra處理器優(yōu)化和部署YOLOv8模型

    英特爾 Ultra處理器是英特爾公司推出的一個(gè)高端處理器品牌,其第一代產(chǎn)品基于Meteor Lake架構(gòu),使用Intel 4制程,單顆
    的頭像 發(fā)表于 05-30 17:16 ?2567次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b>處理器<b class='flag-5'>上</b>優(yōu)化和<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>8模型

    如何將Llama3.1模型部署英特爾Ultra處理器

    本文從搭建環(huán)境開始,一步一步幫助讀者實(shí)現(xiàn)只用五行代碼便可將Llama3.1模型部署英特爾 Ult
    的頭像 發(fā)表于 07-26 09:51 ?2815次閱讀
    如何將Llama3.1模型<b class='flag-5'>部署</b><b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b>處理器

    英特爾AIPC利用LabVIEW與YOLOv11實(shí)現(xiàn)目標(biāo)檢測(cè)

    超薄超輕,手掌大小,接口豐富,滿足多種外部設(shè)備連接需求。搭載更快的英特爾 Ultra 7-155H 處理器,全新的三合一架構(gòu)(CPU、GPU、
    的頭像 發(fā)表于 02-17 10:01 ?388次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>英特爾</b>AIPC<b class='flag-5'>上</b>利用LabVIEW與<b class='flag-5'>YOLOv11</b>實(shí)現(xiàn)目標(biāo)檢測(cè)

    英特爾Ultra AI PC部署多種圖像生成模型

    全新英特爾Ultra 200V系列處理器對(duì)比上代Meteor Lake,升級(jí)了模塊化結(jié)構(gòu)、封裝工藝,采用全新性能核與能效核、英特爾硬件線
    的頭像 發(fā)表于 04-02 15:47 ?190次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b> <b class='flag-5'>AI</b> <b class='flag-5'>PC</b>上<b class='flag-5'>部署</b>多種圖像生成模型

    英特爾Ultra 200HX游戲本發(fā)布

    近日,英特爾舉辦了“英特爾 Ultra 200HX新品分享會(huì)”,來自10家OEM的20款高性能筆記本集中亮相,為廣大游戲發(fā)燒友和高性能
    的頭像 發(fā)表于 04-09 09:24 ?304次閱讀

    OrinNano yolov11訓(xùn)練部署教程

    ORinNano yolov11訓(xùn)練部署教程
    的頭像 發(fā)表于 04-10 15:26 ?169次閱讀
    OrinNano  <b class='flag-5'>yolov11</b>訓(xùn)練<b class='flag-5'>部署</b>教程
    主站蜘蛛池模板: 国产呦精品系列在线 | 黄网在线观看免费 | 男人的午夜影院 | 99精品在免费线视频 | 国产yw855.c免费观看网站 | 天天拍天天干天天操 | 四虎4444hu4影视最新地址 | 午夜影视网 | 五月天婷婷在线观看视频 | 午夜特级毛片 | 日本免费一区二区在线观看 | 国产国产人免费人成免费视频 | 国产叼嘿视频免费网站 | 欧美不卡视频在线观看 | 2018天天夜夜 | 国产一区在线mmai | 久久成人综合网 | 91在线国内在线播放大神 | 日本视频免费高清一本18 | 丁香花在线观看免费观看 | 天天干夜夜添 | 午夜小网站 | www.色视频| 亚洲欧美视频在线播放 | 伊人成人在线 | 欧美亚洲一区二区三区在线 | 黄 色 片成 人免费观看 | 好大好紧好爽好湿润视频 | 青娱乐啪啪 | 你懂的在线观看网址 | 午夜毛片不卡高清免费 | 欧美二区三区 | 国产在线永久视频 | 午夜国产在线 | 欧洲色 | 射吧亚洲| 欧美三级视频网 | www网站在线观看 | 亚洲午夜精品久久久久久人妖 | 黄色网日本 | 无遮挡很爽很污很黄在线网站 |