在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用OpenVINO C# API在intel平臺部署YOLOv10目標檢測模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-06-21 09:23 ? 次閱讀

作者:顏國進

英特爾邊緣計算創新大使

最近YOLO家族又添新成員:YOLOv10,YOLOv10提出了一種一致的雙任務方法,用于無nms訓練的YOLOs,它同時帶來了具有競爭力的性能和較低的推理延遲。此外,還介紹了整體效率-精度驅動的模型設計策略,從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了性能。在本文中,我們將結合OpenVINO C# API使用最新發布的OpenVINO 2024.1部署YOLOv10目標檢測模型。

1前言

1OpenVINO C# API

英特爾發行版OpenVINO工具套件基于oneAPI而開發,可以加快高性能計算機視覺深度學習視覺應用開發速度工具套件,適用于從邊緣到云的各種英特爾平臺上,幫助用戶更快地將更準確的真實世界結果部署到生產系統中。通過簡化的開發工作流程,OpenVINO可賦能開發者在現實世界中部署高性能應用程序和算法

2024年4月25日,英特爾發布了開源OpenVINO 2024.1工具包,用于在各種硬件上優化和部署人工智能推理。更新了更多的Gen AI覆蓋范圍和框架集成,以最大限度地減少代碼更改。同時提供了更廣泛的 LLM 模型支持和更多的模型壓縮技術。通過壓縮嵌入的額外優化減少了LLM編譯時間,改進了采用英特爾高級矩陣擴展(Intel AMX) 的第4代和第5代英特爾至強處理器上LLM的第1令牌性能。通過對英特爾銳炫 GPU的oneDNN、INT4 和 INT8 支持,實現更好的LLM壓縮和改進的性能。最后實現了更高的可移植性和性能,可在邊緣、云端或本地運行AI。

OpenVINO C# API 是一個 OpenVINO 的 .Net wrapper,應用最新的 OpenVINO 庫開發,通過 OpenVINO C API 實現 .Net 對 OpenVINO Runtime 調用,使用習慣與 OpenVINO C++ API 一致。OpenVINO C# API 由于是基于 OpenVINO 開發,所支持的平臺與 OpenVINO 完全一致,具體信息可以參考 OpenVINO。通過使用OpenVINO C# API,可以在.NET、.NET Framework等框架下使用C#語言實現深度學習模型在指定平臺推理加速。

2YOLOv10

在過去的幾年里,由于在計算成本和檢測性能之間取得了有效的平衡,YOLOs已經成為實時目標檢測領域的主導范式。然而,對非最大抑制(NMS)的后處理依賴阻礙了yolo的端到端部署,并對推理延遲產生不利影響。為了解決這些問題,首先提出了一種一致的雙任務方法,用于無nms訓練的YOLOs,它同時帶來了具有競爭力的性能和較低的推理延遲。此外,我們還介紹了整體效率-精度驅動的模型設計策略。我們從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了性能。我們的努力成果是用于實時端到端目標檢測的新一代YOLO系列,稱為YOLOv10。大量的實驗表明,YOLOv10在各種模型尺度上都達到了最先進的性能和效率。例如,我們的YOLOv10-S在COCO上類似的AP下比RT-DETR-R18快1.8倍,同時參數數量和FLOPs減少2.8倍。與YOLOv9-C相比,在相同性能下,YOLOv10-B的延遲減少了46%,參數減少了25%。

下圖為YOLOv10官方提供的模型訓練精度以及不同模型數據量,可以看出YOLOv10與之前其他系列相比,數據量在減少的同時,精度依舊有所提升。

ed974c70-2f6b-11ef-a4c8-92fbcf53809c.png

2模型獲取

1源碼下載

YOLOv10模型需要源碼進行下載,首先克隆GitHub上的源碼,輸入以下指令:

git clone https://github.com/THU-MIG/yolov10.git
cd yolov10

2配置環境

接下來安裝模型下載以及轉換環境,此處使用Anaconda進行程序集管理,輸入以下指令創建一個yolov10環境:

conda create -n yolov10 python=3.9
conda activate yolov10
pip install -r requirements.txt
pip install -e .

然后安裝OpenVINO環境,輸入以下指令:

pip install openvino==2024.1.0

3下載模型

首先導出目標識別模型,此處以官方預訓練模型為例,首先下載預訓練模型文件,然后調用yolo導出ONBNX格式的模型文件,最后使用OpenVINO的模型轉換命令將模型轉為IR格式,依次輸入以下指令即可:

wget https://github.com/jameslahm/yolov10/releases/download/v1.0/yolov10s.pt
yolo export model=yolov10s.pt format=onnx opset=13 simplify
ovc yolov10s.onnx

edd5d954-2f6b-11ef-a4c8-92fbcf53809c.png

模型的結構如下圖所示:

ee0a475c-2f6b-11ef-a4c8-92fbcf53809c.png

3Yolov10 項目配置

1項目創建與環境配置

在Windows平臺開發者可以使用Visual Studio平臺開發程序,但無法跨平臺實現,為了實現跨平臺,此處采用dotnet指令進行項目的創建和配置。

首先使用dotnet創建一個測試項目,在終端中輸入一下指令:

dotnet new console --framework net6.0 --use-program-main -o yolov10

此處以Windows平臺為例安裝項目依賴,首先是安裝OpenVINO C# API項目依賴,在命令行中輸入以下指令即可:

dotnet add package OpenVINO.CSharp.API
dotnet add package OpenVINO.runtime.win
dotnet add package OpenVINO.CSharp.API.Extensions
dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp

接下來安裝使用到的圖像處理庫OpenCvSharp,在命令行中輸入以下指令即可:

dotnet add package OpenCvSharp4
dotnet add package OpenCvSharp4.Extensions
dotnet add package OpenCvSharp4.runtime.win

關于在其他平臺上搭建 OpenCvSharp 開發環境請參考以下文章:《【OpenCV】在Linux上使用OpenCvSharp》、《【OpenCV】在MacOS上使用OpenCvSharp》。

添加完成項目依賴后,項目的配置文件如下所示:




 
  Exe
  net6.0
  enable
  enable
 
 
 
  
  
  
  
  
  
 


2定義模型預測方法

使用OpenVINO C# API部署模型主要包括以下幾個步驟:

初始化OpenVINO Runtime Core

讀取本地模型(將圖片數據預處理方式編譯到模型)

將模型編譯到指定設備

創建推理通道

處理圖像輸入數據

設置推理輸入數據

模型推理

獲取推理結果

處理結果數據

3定義目標檢測模型方法

按照OpenVINO C# API部署深度學習模型的步驟,編寫YOLOv10模型部署流程,在之前的項目里,我們已經部署了YOLOv5~9等一系列模型,其部署流程是基本一致的,YOLOv10模型部署代碼如下所示:

static void yolov10_det(string model_path, string image_path, string device)
{
  // -------- Step 1. Initialize OpenVINO Runtime Core --------
  Core core = new Core();
  // -------- Step 2. Read inference model --------
  Model model = core.read_model(model_path);
  OvExtensions.printf_model_info(model);
  // -------- Step 3. Loading a model to the device --------
  CompiledModel compiled_model = core.compile_model(model, device);
  // -------- Step 4. Create an infer request --------
  InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 5. Process input images --------
  Mat image = new Mat(image_path); // Read image by opencvsharp
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  image.CopyTo(new Mat(max_image, roi));
  float factor = (float)(max_image_length / 640.0);
  // -------- Step 6. Set up input data --------
  Tensor input_tensor = infer_request.get_input_tensor();
  Shape input_shape = input_tensor.get_shape();
  Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), 0, true, false);
  float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
  Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
  input_tensor.set_data(input_data);
  // -------- Step 7. Do inference synchronously --------
  infer_request.infer();
  // -------- Step 8. Get infer result data --------
  Tensor output_tensor = infer_request.get_output_tensor();
  int output_length = (int)output_tensor.get_size();
  float[] output_data = output_tensor.get_data(output_length);
  // -------- Step 9. Process reault --------
  List position_boxes = new List();
  List class_ids = new List();
  List confidences = new List();
  // Preprocessing output results
  for (int i = 0; i < output_data.Length / 6; i++)
 ?{
 ? ? ? int s = 6 * i;
 ? ? ? if ((float)output_data[s + 4] > 0.5)
   {
      float cx = output_data[s + 0];
      float cy = output_data[s + 1];
      float dx = output_data[s + 2];
      float dy = output_data[s + 3];
      int x = (int)((cx) * factor);
      int y = (int)((cy) * factor);
      int width = (int)((dx - cx) * factor);
      int height = (int)((dy - cy) * factor);
      Rect box = new Rect();
      box.X = x;
      box.Y = y;
      box.Width = width;
      box.Height = height;


      position_boxes.Add(box);
      class_ids.Add((int)output_data[s + 5]);
      confidences.Add((float)output_data[s + 4]);
   }
 }


  for (int i = 0; i < class_ids.Count; i++)
 ?{
 ? ? ? int index = i;
 ? ? ? Cv2.Rectangle(image, position_boxes[index], new Scalar(0, 0, 255), 2, LineTypes.Link8);
 ? ? ? Cv2.Rectangle(image, new OpenCvSharp.Point(position_boxes[index].TopLeft.X, position_boxes[index].TopLeft.Y + 30),
 ? ? ? ? ? new OpenCvSharp.Point(position_boxes[index].BottomRight.X, position_boxes[index].TopLeft.Y), new Scalar(0, 255, 255), -1);
 ? ? ? Cv2.PutText(image, class_ids[index] + "-" + confidences[index].ToString("0.00"),
 ? ? ? ? ? new OpenCvSharp.Point(position_boxes[index].X, position_boxes[index].Y + 25),
 ? ? ? ? ? HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
 ?}
 ? string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
 ? ? ? Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
 ? Cv2.ImWrite(output_path, image);
 ? Slog.INFO("The result save to " + output_path);
 ? Cv2.ImShow("Result", image);
 ? Cv2.WaitKey(0);
}

4使用OpenVINO 預處理接口編譯模型

OpenVINO提供了推理數據預處理接口,用戶可以更具模型的輸入數據預處理方式進行設置。在讀取本地模型后,調用數據預處理接口,按照模型要求的數據預處理方式進行輸入配置,然后再將配置好的預處理接口與模型編譯到一起,這樣便實現了將模型預處理與模型結合在一起,實現OpenVINO對于處理過程的加速。主要是現在代碼如下所示:

static void yolov10_det_process(string model_path, string image_path, string device)
{
  // -------- Step 1. Initialize OpenVINO Runtime Core --------
  Core core = new Core();
  // -------- Step 2. Read inference model --------
  Model model = core.read_model(model_path);
  OvExtensions.printf_model_info(model);
  PrePostProcessor processor = new PrePostProcessor(model);
  Tensor input_tensor_pro = new Tensor(new OvType(ElementType.U8), new Shape(1, 640, 640, 3));
  InputInfo input_info = processor.input(0);
  InputTensorInfo input_tensor_info = input_info.tensor();
  input_tensor_info.set_from(input_tensor_pro).set_layout(new Layout("NHWC")).set_color_format(ColorFormat.BGR);


  PreProcessSteps process_steps = input_info.preprocess();
  process_steps.convert_color(ColorFormat.RGB).resize(ResizeAlgorithm.RESIZE_LINEAR)
   .convert_element_type(new OvType(ElementType.F32)).scale(255.0f).convert_layout(new Layout("NCHW"));
  Model new_model = processor.build();
  // -------- Step 3. Loading a model to the device --------
  CompiledModel compiled_model = core.compile_model(new_model, device);
  // -------- Step 4. Create an infer request --------
  InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 5. Process input images --------
  Mat image = new Mat(image_path); // Read image by opencvsharp
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  image.CopyTo(new Mat(max_image, roi));
  Cv2.Resize(max_image, max_image, new OpenCvSharp.Size(640, 640));
  float factor = (float)(max_image_length / 640.0);
  // -------- Step 6. Set up input data --------
  Tensor input_tensor = infer_request.get_input_tensor();
  Shape input_shape = input_tensor.get_shape();
  byte[] input_data = new byte[input_shape[1] * input_shape[2] * input_shape[3]];
  //max_image.GetArray(out input_data);
  Marshal.Copy(max_image.Ptr(0), input_data, 0, input_data.Length);
  IntPtr destination = input_tensor.data();
  Marshal.Copy(input_data, 0, destination, input_data.Length);
  // -------- Step 7. Do inference synchronously --------
... ...(后續與上文代碼一致)
}

5模型預測方法調用

定義完模型推理接口后,便可以在主函數里進行調用。此處為了讓大家更好的復現本文代碼,提供了在線模型,用戶只需要運行以下代碼,便可以直接下載轉換好的模型進行模型推理,無需再自行轉換,主函數代碼如下所示:

static void Main(string[] args)
{
  string model_path = "";
  string image_path = "";
  string device = "AUTO";
  if (args.Length == 0)
 {
    if (!Directory.Exists("./model"))
   {
      Directory.CreateDirectory("./model");
   }
    if (!File.Exists("./model/yolov10s.bin") && !File.Exists("./model/yolov10s.bin"))
   {
      if (!File.Exists("./model/yolov10s.tar"))
     {
        _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Model/yolov10s.tar",
          "./model/yolov10s.tar").Result;
     }
      Download.unzip("./model/yolov10s.tar", "./model/");
   }


    if (!File.Exists("./model/test_image.jpg"))
   {
      _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Image/test_det_02.jpg",
        "./model/test_image.jpg").Result;
   }
    model_path = "./model/yolov10s.xml";
    image_path = "./model/test_image.jpg";
 }
  else if (args.Length >= 2)
 {
    model_path = args[0];
    image_path = args[1];
    device = args[2];
 }
  else
 {
    Console.WriteLine("Please enter the correct command parameters, for example:");
    Console.WriteLine("> 1. dotnet run");
    Console.WriteLine("> 2. dotnet run   ");
 }
  // -------- Get OpenVINO runtime version --------


  OpenVinoSharp.Version version = Ov.get_openvino_version();


  Slog.INFO("---- OpenVINO INFO----");
  Slog.INFO("Description : " + version.description);
  Slog.INFO("Build number: " + version.buildNumber);


  Slog.INFO("Predict model files: " + model_path);
  Slog.INFO("Predict image files: " + image_path);
  Slog.INFO("Inference device: " + device);
  Slog.INFO("Start yolov8 model inference.");


  //yolov10_det(model_path, image_path, device);
  yolov10_det_process(model_path, image_path, device);
}

代碼提示:

由于篇幅限制,上文中只展示了部分代碼,想要獲取全部源碼,請訪問項目GitHub自行下載:

使用OpenVINO C# API部署YOLOv10目標檢測模型:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/yolov10_det_opencvsharp/Program.cs

此外為了滿足習慣使用EmguCV處理圖像數據的開發者,此處我們也提供了EmguCV版本代碼:

使用OpenVINO C# API部署YOLOv10目標檢測模型:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/yolov10_det_emgucv/Program.cs

4項目運行與演示

1項目編譯和運行

接下來輸入項目編譯指令進行項目編譯,輸入以下指令即可:

dotnet build

接下來運行編譯后的程序文件,在CMD中輸入以下指令,運行編譯后的項目文件:

dotnet run --no-build

2YOLOv10 目標檢測模型運行結果

下圖為YOLOv10 目標檢測模型運行輸出信息,此處我們使用在線轉換好的模型進行推理。,首先會下載指定模型以及推理數據到本地,這樣避免了開發者在自己配置環境和下載模型;接下來是輸出打印 OpenVINO 版本信息,此處我們使用NuGet安裝的依賴項,已經是OpenVINO 2024.0最新版本;接下來就是打印相關的模型信息,并輸出每個過程所消耗時間。

ee3b9280-2f6b-11ef-a4c8-92fbcf53809c.png

5總結

在該項目中,我們結合之前開發的OpenVINO C# API項目部署YOLOv10模型,成功實現了對象目標檢測與實例分割,并且根據不同開發者的使用習慣,同時提供了OpenCvSharp以及Emgu.CV兩種版本,供各位開發者使用。最后如果各位開發者在使用中有任何問題,歡迎大家與我聯系。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    10007

    瀏覽量

    172331
  • 計算機
    +關注

    關注

    19

    文章

    7536

    瀏覽量

    88641
  • 模型
    +關注

    關注

    1

    文章

    3305

    瀏覽量

    49221
  • OpenVINO
    +關注

    關注

    0

    文章

    95

    瀏覽量

    228

原文標題:用OpenVINO? C# API在intel平臺部署YOLOv10目標檢測模型丨開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實現快速高效的語義分割。在前文中我們發表
    的頭像 發表于 11-17 09:53 ?991次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C</b>++ <b class='flag-5'>API</b><b class='flag-5'>部署</b>FastSAM<b class='flag-5'>模型</b>

    C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉換YOLOv5預訓練模型的詳細步驟,請參考:《基于OpenVINO?2022.2和蝰蛇峽谷優化并部署YOLOv5
    的頭像 發表于 02-15 16:53 ?5257次閱讀

    AI愛克斯開發板上OpenVINO?加速YOLOv8目標檢測模型

    AI 愛克斯開發板上 OpenVINO 加速 YOLOv8 分類模型》介紹了 AI 愛
    的頭像 發表于 05-12 09:08 ?1382次閱讀
    <b class='flag-5'>在</b>AI愛克斯開發板上<b class='flag-5'>用</b><b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目標</b><b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    AI愛克斯開發板上使用OpenVINO加速YOLOv8目標檢測模型

    AI愛克斯開發板上OpenVINO加速YOLOv8分類模型》介紹了AI愛克斯開發板上使用
    的頭像 發表于 05-26 11:03 ?1330次閱讀
    AI愛克斯開發板上使用<b class='flag-5'>OpenVINO</b>加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目標</b><b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    AI愛克斯開發板上OpenVINO?加速YOLOv8-seg實例分割模型

    AI 愛克斯開發板上 OpenVINO 加速 YOLOv8 目標檢測
    的頭像 發表于 06-05 11:52 ?1066次閱讀
    <b class='flag-5'>在</b>AI愛克斯開發板上<b class='flag-5'>用</b><b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8-seg實例分割<b class='flag-5'>模型</b>

    OpenVINO? C++ API編寫YOLOv8-Seg實例分割模型推理程序

    本文章將介紹使用 OpenVINO 2023.0 C++ API 開發YOLOv8-Seg 實例分割(Instance Segmentation)
    的頭像 發表于 06-25 16:09 ?1705次閱讀
    <b class='flag-5'>用</b><b class='flag-5'>OpenVINO</b>? <b class='flag-5'>C</b>++ <b class='flag-5'>API</b>編寫<b class='flag-5'>YOLOv</b>8-Seg實例分割<b class='flag-5'>模型</b>推理程序

    AI愛克斯開發板上OpenVINO?加速YOLOv8-seg實例分割模型

    AI 愛克斯開發板上 OpenVINO 加速 YOLOv8 目標檢測
    的頭像 發表于 06-30 10:43 ?1035次閱讀
    <b class='flag-5'>在</b>AI愛克斯開發板上<b class='flag-5'>用</b><b class='flag-5'>OpenVINO</b>?加速<b class='flag-5'>YOLOv</b>8-seg實例分割<b class='flag-5'>模型</b>

    OpenVINO? C# API詳解與演示

    OpenVINO C# API 支持 NuGet 程序包安裝方式,這與 OpenVINO C++ 庫的安裝過程相比,更加簡單。如果使用 Vi
    的頭像 發表于 10-13 16:39 ?843次閱讀
    <b class='flag-5'>OpenVINO</b>?  <b class='flag-5'>C#</b> <b class='flag-5'>API</b>詳解與演示

    基于OpenVINO Python API部署RT-DETR模型

    平臺實現 OpenVINO 部署 RT-DETR 模型實現深度學習推理加速, 本文中,我們將首先介紹基于
    的頭像 發表于 10-20 11:15 ?1055次閱讀
    基于<b class='flag-5'>OpenVINO</b> Python <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    基于OpenVINO C++ API部署RT-DETR模型

    應用中,我們為了與當前軟件平臺集成更多會采用 C++ 平臺,因此本文中,我們將基于 OpenVINO
    的頭像 發表于 11-03 14:30 ?928次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C</b>++ <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    基于OpenVINO C# API部署RT-DETR模型

    C# 環境下使用該模型應用到工業檢測中,因此本文中,我們將向大家展示使用 OpenVINO Csharp
    的頭像 發表于 11-10 16:59 ?806次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    OpenVINO? C# API部署YOLOv9目標檢測和實例分割模型

    YOLOv9模型是YOLO系列實時目標檢測算法中的最新版本,代表著該系列準確性、速度和效率方面的又一次重大飛躍。
    的頭像 發表于 04-03 17:35 ?978次閱讀
    <b class='flag-5'>OpenVINO</b>? <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>9<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>和實例分割<b class='flag-5'>模型</b>

    使用OpenVINO C# API部署YOLO-World實現實時開放詞匯對象檢測

    的快速準確識別,并通過AR技術將虛擬元素與真實場景相結合,為用戶帶來沉浸式的交互體驗。本文中,我們將結合OpenVINO C# API使用最新發布的
    的頭像 發表于 08-30 16:27 ?859次閱讀
    使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>YOLO-World實現實時開放詞匯對象<b class='flag-5'>檢測</b>

    YOLOv10:引領無NMS實時目標檢測的新紀元

    。 YOLO(You Only Look Once)系列一直是實時目標檢測的基準,成功平衡了計算成本和檢測性能。盡管架構設計和優化策略方面取得了進展,但對非最大值抑制(NMS)
    的頭像 發表于 11-13 17:12 ?1004次閱讀
    <b class='flag-5'>YOLOv10</b>:引領無NMS實時<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的新紀元

    YOLOv10自定義目標檢測之理論+實踐

    概述 YOLOv10 是由清華大學研究人員利用 Ultralytics Python 軟件包開發的,它通過改進模型架構并消除非極大值抑制(NMS)提供了一種新穎的實時目標檢測方法。這些
    的頭像 發表于 11-16 10:23 ?727次閱讀
    <b class='flag-5'>YOLOv10</b>自定義<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>之理論+實踐
    主站蜘蛛池模板: 亚洲 欧美 成人 | 伊人精品视频在线 | 国产小视频在线免费 | 日本aaaa视频 | 四虎影院免费观看 | 在线免费观看毛片网站 | 成年美女 | 国内精品久久影视免费 | 性香港xxxxx免费视频播放 | 日韩a级毛片 | 天天视频免费观看高清影视 | 久久99久久精品97久久综合 | 国产乱理论片在线观看理论 | 成人精品亚洲人成在线 | 天天弄天天操 | 6080伦理久久精品亚洲 | 色五月丁香五月综合五月 | 色婷婷亚洲十月十月色天 | 人人草在线| 日本久草网 | 免费色视频在线观看 | 久久99精品久久久久久久不卡 | 国语自产免费精品视频一区二区 | 亚洲三级在线免费观看 | h视频在线观看网站 | 亚洲免费观看在线视频 | 种子在线搜索bt | 久久性妇女精品免费 | 办公室桌震娇喘视频大全在线 | 欧美一级特黄aaaaaa在线看首页 | 亚洲欧美精品一区二区 | 天天操天天干天天玩 | 人人爱人人插 | 手机看片日韩高清1024 | 欧美午夜精品 | 天天色天天看 | 在线a人片免费观看不卡 | 欧美高清激情毛片 | aa在线免费观看 | 天堂电影在线观看免费入口 | 国产一级做a爰片久久毛片男 |