在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-12-21 10:50 ? 次閱讀

前言

Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè),主要是通過(guò)對(duì)YOLOv8姿態(tài)評(píng)估模型在自定義的數(shù)據(jù)集上訓(xùn)練,生成一個(gè)自定義的圓檢測(cè)與圓心定位預(yù)測(cè)模型

01制作數(shù)據(jù)集

本人從網(wǎng)絡(luò)上隨便找到了個(gè)工業(yè)工件,然后寫代碼合成了一些數(shù)據(jù),總計(jì)數(shù)據(jù)有360張圖像、其中336張作為訓(xùn)練集、24張作為驗(yàn)證集。

其中YOLOv的數(shù)據(jù)格式如下:

ee5ef9ca-9f4a-11ee-8b88-92fbcf53809c.png

解釋一下:

Class-index 表示對(duì)象類型索引,從0開始
后面的四個(gè)分別是對(duì)象的中心位置與寬高 xc、yc、width、height
Px1,py1表示第一個(gè)關(guān)鍵點(diǎn)坐標(biāo)、p1v表示師傅可見,默認(rèn)填2即可。

02模型訓(xùn)練

跟訓(xùn)練YOLOv8對(duì)象檢測(cè)模型類似,直接運(yùn)行下面的命令行即可:

yolo train model=yolov8n-pose.pt data=circle_dataset.yaml epochs=15 imgsz=640 batch=1

ee70d988-9f4a-11ee-8b88-92fbcf53809c.png

ee918aca-9f4a-11ee-8b88-92fbcf53809c.png

eebba508-9f4a-11ee-8b88-92fbcf53809c.png

eed90814-9f4a-11ee-8b88-92fbcf53809c.png

03模型導(dǎo)出預(yù)測(cè)

訓(xùn)練完成以后模型預(yù)測(cè)推理測(cè)試 使用下面的命令行:

yolo predict model=D:pythonmy_yolov8_train_demo
unspose	rain3weightsest.pt source=D:ird_testack12.png

導(dǎo)出模型為ONNX格式,使用下面命令行即可

yolo export model=D:pythonmy_yolov8_train_demo
unspose	rain3weightsest.pt format=onnx

ef11215e-9f4a-11ee-8b88-92fbcf53809c.png

04部署推理

基于ONNX格式模型,采用ONNXRUNTIME推理結(jié)果

ORT相關(guān)的推理演示代碼如下:

defort_circle_demo():

#initializetheonnxruntimesessionbyloadingmodelinCUDAsupport
model_dir="D:/python/my_yolov8_train_demo/circle_detect.onnx"
session=onnxruntime.InferenceSession(model_dir,providers=['CUDAExecutionProvider'])

#就改這里, 把RTSP的地址配到這邊就好啦,然后直接運(yùn)行,其它任何地方都不準(zhǔn)改!
#切記把 onnx文件放到跟這個(gè)python文件同一個(gè)文件夾中!
frame=cv.imread("D:/bird_test/back1/3.png")
bgr=format_yolov8(frame)
fh,fw,fc=frame.shape

start=time.time()
image=cv.dnn.blobFromImage(bgr,1/255.0,(640,640),swapRB=True,crop=False)

#onnxruntimeinference
ort_inputs={session.get_inputs()[0].name:image}
res=session.run(None,ort_inputs)[0]

#matrixtransposefrom1x8x8400=>8400x8
out_prob=np.squeeze(res,0).T

result_kypts,confidences,boxes=wrap_detection(bgr,out_prob)
for(kpts,confidence,box)inzip(result_kypts,confidences,boxes):
cv.rectangle(frame,box,(0,0,255),2)
cv.rectangle(frame,(box[0],box[1]-20),(box[0]+box[2],box[1]),(0,255,255),-1)
cv.putText(frame,("%.2f"%confidence),(box[0],box[1]-10),cv.FONT_HERSHEY_SIMPLEX,.5,(0,0,0))
cx=kpts[0]
cy=kpts[1]
cv.circle(frame,(int(cx),int(cy)),3,(255,0,255),4,8,0)

cv.imshow("CircleDetectionDemo",frame)
cv.waitKey(0)
cv.destroyAllWindows()


if__name__=="__main__":
ort_circle_demo()

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25276
  • 命令行
    +關(guān)注

    關(guān)注

    0

    文章

    80

    瀏覽量

    10529
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122479
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    1436

原文標(biāo)題:【YOLOv8新玩法】姿態(tài)評(píng)估解鎖找圓心位置

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何才能高效地進(jìn)行深度學(xué)習(xí)模型訓(xùn)練

    分布式深度學(xué)習(xí)框架中,包括數(shù)據(jù)/模型切分、本地單機(jī)優(yōu)化算法訓(xùn)練、通信機(jī)制、和數(shù)據(jù)/模型聚合等模塊。現(xiàn)有的算法一般采用隨機(jī)置亂切分的數(shù)據(jù)分配方
    的頭像 發(fā)表于 07-09 08:48 ?1.4w次閱讀
    如何才能高效地進(jìn)行<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>?

    請(qǐng)問(wèn)怎么根據(jù)最小二乘圓心確定最大內(nèi)接圓心

    怎么根據(jù)最小二乘圓心確定最大內(nèi)接圓心
    發(fā)表于 05-12 19:23

    全網(wǎng)唯一一套labview深度學(xué)習(xí)教程:tensorflow+目標(biāo)檢測(cè):龍哥教你學(xué)視覺—LabVIEW深度學(xué)習(xí)教程

    ,使用labview訓(xùn)練和部署深度學(xué)習(xí)模型,并配備相關(guān)案例視頻。課程目錄:Tensorflow環(huán)境搭建Object_detection api安裝相關(guān)py文件編譯測(cè)試測(cè)試tensorf
    發(fā)表于 08-10 10:38

    labview深度學(xué)習(xí)應(yīng)用于缺陷檢測(cè)

    標(biāo)注產(chǎn)品后通過(guò)訓(xùn)練平臺(tái)完成模型訓(xùn)練經(jīng)過(guò)少量樣品訓(xùn)練得到測(cè)試結(jié)果,表明深度學(xué)習(xí)對(duì)傳統(tǒng)視覺算法比較棘
    發(fā)表于 08-16 18:12

    深度學(xué)習(xí)預(yù)測(cè)和健康管理中的應(yīng)用

    方法方面的最新進(jìn)展,目的是發(fā)現(xiàn)研究差距并提出進(jìn)一步的改進(jìn)建議。在簡(jiǎn)要介紹了幾種深度學(xué)習(xí)模型之后,我們回顧并分析了使用深度學(xué)習(xí)進(jìn)行故障
    發(fā)表于 07-12 06:46

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來(lái)了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    深度學(xué)習(xí)技術(shù)的開發(fā)與應(yīng)用

    時(shí)間安排大綱具體內(nèi)容實(shí)操案例三天關(guān)鍵點(diǎn)1.強(qiáng)化學(xué)習(xí)的發(fā)展歷程2.馬爾可夫決策過(guò)程3.動(dòng)態(tài)規(guī)劃4.無(wú)模型預(yù)測(cè)學(xué)習(xí)5.無(wú)模型控制學(xué)習(xí)6.價(jià)值函數(shù)
    發(fā)表于 04-21 14:57

    基于深度學(xué)習(xí)模型的點(diǎn)云目標(biāo)檢測(cè)及ROS實(shí)現(xiàn)

    近年來(lái),隨著深度學(xué)習(xí)在圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學(xué)習(xí)模型的點(diǎn)云目標(biāo)檢測(cè)方法被提出和應(yīng)
    的頭像 發(fā)表于 11-05 16:47 ?1.8w次閱讀

    基于預(yù)訓(xùn)練模型和長(zhǎng)短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)模型

    作為模型的初始化詞向量。但是,隨機(jī)詞向量存在不具備語(yǔ)乂和語(yǔ)法信息的缺點(diǎn);預(yù)訓(xùn)練詞向量存在¨一詞-乂”的缺點(diǎn),無(wú)法為模型提供具備上下文依賴的詞向量。針對(duì)該問(wèn)題,提岀了一種基于預(yù)訓(xùn)練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和長(zhǎng)短期記憶網(wǎng)絡(luò)的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    模型,以便將來(lái)能夠進(jìn)行準(zhǔn)確的預(yù)測(cè)。推理是指在訓(xùn)練完成后,使用已經(jīng)訓(xùn)練好的模型進(jìn)行新的預(yù)測(cè)。然而,
    的頭像 發(fā)表于 08-17 16:03 ?1663次閱讀

    視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類、對(duì)象檢測(cè)、實(shí)例分割、語(yǔ)義分割、姿態(tài)評(píng)估
    的頭像 發(fā)表于 09-22 09:49 ?1208次閱讀
    視覺<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遷移<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>訓(xùn)練</b>框架Torchvision介紹

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來(lái)得到了廣泛的應(yīng)用,從圖像識(shí)別、語(yǔ)音識(shí)別到自然語(yǔ)言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個(gè)高效準(zhǔn)確的深度學(xué)
    的頭像 發(fā)表于 12-07 12:38 ?1436次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>如何<b class='flag-5'>訓(xùn)練</b>出好的<b class='flag-5'>模型</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置
    的頭像 發(fā)表于 12-22 11:07 ?1013次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>實(shí)現(xiàn)</b>工件切割點(diǎn)<b class='flag-5'>位置</b><b class='flag-5'>預(yù)測(cè)</b>

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度
    的頭像 發(fā)表于 07-01 16:13 ?2412次閱讀

    深度學(xué)習(xí)的典型模型訓(xùn)練過(guò)程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來(lái)在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過(guò)構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動(dòng)學(xué)習(xí)并提取特征,進(jìn)而
    的頭像 發(fā)表于 07-03 16:06 ?2703次閱讀
    主站蜘蛛池模板: 波多野结衣久久精品 | 午夜在线影视 | 国产成人综合网在线播放 | 久久手机免费视频 | 色视频免费在线 | 四虎永久影院永久影库 | 91极品女神私人尤物在线播放 | 国产精品视频色拍拍 | 九色视频在线看 | 国产婷婷综合在线精品尤物 | 国产亚洲欧美日韩俺去了 | 一区视频免费观看 | 国产精品久久久久影院色老大 | 超刺激gay腐文h文 | 性欧美f| jiuse在线| 69xxx日本| 欧美三级视频在线播放 | 国产成人亚洲综合a∨婷婷 国产成人一区二区三中文 国产成人一区二区在线不卡 | 欧美两性网 | 伊人网视频 | 黄色网址中文字幕 | 免费色视频网站 | 亚洲国产婷婷综合在线精品 | 美女视频永久黄网站免费观看国产 | 色噜噜噜噜 | 天天看片天天爽 | 国产精品黄网站免费观看 | 日本xxxxxxxxx68 | 黄色地址 | 俺去俺来也www色官网免费的 | 香蕉久久久久久狠狠色 | 天天干夜夜笙歌 | 欧美一卡2卡三卡四卡五卡 欧美一卡二卡3卡4卡无卡六卡七卡科普 | 欧美一级片在线视频 | 国产成人精品曰本亚洲78 | 最近最新中文字幕6页 | 尤物蜜芽福利国产污在线观看 | 色综合视频在线观看 | 网友偷自拍原创区 | 欧美精品网 |