曠視科技開源了內(nèi)部目標(biāo)檢測模型-YOLOX,性能與速度全面超越Y(jié)OLOv5早期版本!
https://arxiv.org/pdf/2107.08430.pdf
https://github.com/Megvii-BaseDetection/YOLOX
ONNX格式模型轉(zhuǎn)與部署
下載YOLOX的ONNX格式模型(github上可以下載)https://github.com/Megvii-BaseDetection/YOLOX/tree/main/demo/ONNXRuntime
https://github.com/Megvii-BaseDetection/YOLOX/releases/download/0.1.1rc0/yolox_s.onnx
下載ONNX格式模型,打開之后如圖:
官方說明ONNX格式支持OpenVINO、ONNXRUNTIME、TensorRT三種方式,而且都提供源碼,官方提供的源碼參考如下:輸入格式:1x3x640x640,默認(rèn)BGR,無需歸一化。
輸出格式:1x8400x85
https://github.com/Megvii-BaseDetection/YOLOX/tree/main/demo
本人就是參考上述的代碼然后一通猛改,分別封裝成三個(gè)類,完成了統(tǒng)一接口,公用了后處理部分的代碼,基于本人筆記本的硬件資源與軟件版本:
在三個(gè)推理平臺(tái)上測試結(jié)果如下:-GPU 3050Ti
-CPU i7 11代
-OS:Win10 64位
-OpenVINO2021.4
-ONNXRUNTIME:1.7-CPU
-OpenCV4.5.4
-Python3.6.5
-YOLOX
-TensorRT8.4.x
OpenVINO推理
TensorRT推理 - FP32
轉(zhuǎn)威FP16
TensorRT推理 - FP16
總結(jié)
之前我寫過一篇文章比較了YOLOv5最新版本在OpenVINO、ONNXRUNTIME、OpenCV DNN上的速度比較,現(xiàn)在加上本篇比較了YOLOX在TensorRT、OpenVINO、ONNXRUNTIME上推理部署速度比較,得到的結(jié)論就是:能不改代碼,同時(shí)支持CPU跟GPU推理是ONNXRUNTIMEOpenCV DNN毫無意外的速度最慢(CPU/GPU)CPU上速度最快的是OpenVINO
GPU上速度最快的是TensorRT
原文標(biāo)題:YOLOX在OpenVINO、ONNXRUNTIME、TensorRT上面推理部署與速度比較
文章出處:【微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
模型
+關(guān)注
關(guān)注
1文章
3458瀏覽量
49761 -
目標(biāo)檢測
+關(guān)注
關(guān)注
0文章
220瀏覽量
15838 -
OpenCV
+關(guān)注
關(guān)注
31文章
641瀏覽量
42210
原文標(biāo)題:YOLOX在OpenVINO、ONNXRUNTIME、TensorRT上面推理部署與速度比較
文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb
【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】RKNN 推理測試與圖像識(shí)別
添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略
摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)
AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型
高效大模型的推理綜述

在樹莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測的完整流程

YOLOv6在LabVIEW中的推理部署(含源碼)

手冊上新 |迅為RK3568開發(fā)板NPU例程測試
手冊上新 |迅為RK3568開發(fā)板NPU例程測試
LLM大模型推理加速的關(guān)鍵技術(shù)
迅為RK3568手冊上新 | RK3568開發(fā)板NPU例程測試
yolox_bytetrack_osd_encode示例自帶的yolox模型效果不好是怎么回事?
用OpenVINO C# API在intel平臺(tái)部署YOLOv10目標(biāo)檢測模型

評論