在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv6模型文件的輸入與輸出結(jié)構(gòu)

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-06-25 15:37 ? 次閱讀

YOLOv6人臉檢測(cè)模型

YOLOv6上次(應(yīng)該是很久以前)發(fā)布了一個(gè)0.3.1版本,支持人臉檢測(cè)與五點(diǎn)landmark調(diào)用,后來(lái)我就下載,想使用一下,發(fā)現(xiàn)居然沒(méi)有文檔,也沒(méi)有例子。但是官方有個(gè)infer.py文件是可以調(diào)用的,說(shuō)明這個(gè)模型文件應(yīng)該沒(méi)問(wèn)題。下載打開(kāi)模型文件的輸入與輸出結(jié)構(gòu)如下:

9294c64c-117e-11ee-962d-dac502259ad0.png

輸出格式8400x16,其中16的輸出表示為人臉框+landmark坐標(biāo)信息。xyxy, conf, cls, lmdks,前面四個(gè)是Box信息、后面是置信度與分類(lèi)得分、最后是10個(gè)值五點(diǎn)XY坐標(biāo)

輸出解析順序

官方代碼與參考文檔給出的解析順序,xyxy, conf, cls, lmdks,這部分還有官方的參考文件:

https://github.com/meituan/YOLOv6/blob/yolov6-face/yolov6/core/inferer.py

92d37716-117e-11ee-962d-dac502259ad0.png

第110行就是這樣說(shuō)明的,于是我按上述格式一通解析,結(jié)果讓我崩潰了,輸入圖像與解析結(jié)果如下:

92ed582a-117e-11ee-962d-dac502259ad0.png

這個(gè)時(shí)候我才明白為什么這個(gè)發(fā)布了這么久,網(wǎng)上居然一篇文章關(guān)于YOLOv6人臉檢測(cè)的文章都沒(méi)有,網(wǎng)上的文章很多都是YOLOv5跟YOLOv7的人臉+Landmark檢測(cè),原因一切都是有原因的。 我debug一下,發(fā)現(xiàn)預(yù)測(cè)出來(lái)的16個(gè)值,只有最后兩個(gè)值的結(jié)果是小于或者等于1的,所以我當(dāng)時(shí)猜想16個(gè)順序應(yīng)該是:xyxy, lmdks, conf, cls,按照我猜測(cè)的順序我又改下代碼,然后直接運(yùn)行測(cè)試,奇跡出現(xiàn)了:

這張圖是AI生成的,如有雷同純屬巧合! 整個(gè)推理的流程跟YOLOv5、YOLOv6對(duì)象檢測(cè)一樣,就是后處理不同,所以附上后處理部分的代碼:

defwrap_detection(self,input_image,out_data):
confidences=[]
boxes=[]
kypts=[]
rows=out_data.shape[0]

image_width,image_height,_=input_image.shape

x_factor=image_width/640.0
y_factor=image_height/640.0

sd=np.zeros((5,2),dtype=np.float32)
sd[0:5]=(x_factor,y_factor)
sd=np.squeeze(sd.reshape((-1,1)),1)
#xyxy,lmdks,conf,cls,
forrinrange(rows):
row=out_data[r]
conf=row[14]
cls=row[15]
if(conf>0.25andcls>0.25):
confidences.append(conf)
x,y,w,h=row[0].item(),row[1].item(),row[2].item(),row[3].item()
left=int((x-0.5*w)*x_factor)
top=int((y-0.5*h)*y_factor)
width=int(w*x_factor)
height=int(h*y_factor)
box=np.array([left,top,width,height])
boxes.append(box)
kypts.append(np.multiply(row[4:14],sd))

indexes=cv.dnn.NMSBoxes(boxes,confidences,0.25,0.25)

result_confidences=[]
result_boxes=[]
result_kypts=[]

foriinindexes:
result_confidences.append(confidences[i])
result_boxes.append(boxes[i])
result_kypts.append(kypts[i])

returnresult_kypts,result_confidences,result_boxes

責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3499

    瀏覽量

    50078
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4891

    瀏覽量

    70312
  • 人臉檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    86

    瀏覽量

    16787

原文標(biāo)題:YOLOv6 人臉Landmark檢測(cè)

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Yolov5算法解讀

    ,這幾個(gè)模型結(jié)構(gòu)基本一樣,不同的是depth_multiple模型深度和width_multiple模型寬度這兩個(gè)參數(shù)。 yolov5主要
    的頭像 發(fā)表于 05-17 16:38 ?1.2w次閱讀
    <b class='flag-5'>Yolov</b>5算法解讀

    YOLOV7網(wǎng)絡(luò)架構(gòu)解讀

    繼美團(tuán)發(fā)布YOLOV6之后,YOLO系列原作者也發(fā)布了YOLOV7。
    的頭像 發(fā)表于 11-29 10:00 ?2389次閱讀
    <b class='flag-5'>YOLOV</b>7網(wǎng)絡(luò)架構(gòu)解讀

    怎樣使用PyTorch Hub去加載YOLOv5模型

    圖像會(huì)自動(dòng)傳輸?shù)秸_的模型設(shè)備。靜音輸出模型可以靜默加載_verbose=False:輸入通道要加載具有 4 個(gè)輸入通道而不是默認(rèn)的 3 個(gè)
    發(fā)表于 07-22 16:02

    YOLOv6中的用Channel-wise Distillation進(jìn)行的量化感知訓(xùn)練

    1、YOLOv6中的用Channel-wise Distillation進(jìn)行的量化感知訓(xùn)練來(lái)自哪里  知識(shí)蒸餾 (KD)已被證明是一種用于訓(xùn)練緊湊密集預(yù)測(cè)模型的簡(jiǎn)單有效的工具。輕量級(jí)學(xué)生網(wǎng)絡(luò)通過(guò)
    發(fā)表于 10-09 16:25

    YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)解析

    1、YOLOv5 網(wǎng)絡(luò)結(jié)構(gòu)解析  YOLOv5針對(duì)不同大小(n, s, m, l, x)的網(wǎng)絡(luò)整體架構(gòu)都是一樣的,只不過(guò)會(huì)在每個(gè)子模塊中采用不同的深度和寬度,  分別應(yīng)對(duì)yaml文件
    發(fā)表于 10-31 16:30

    全志V853 在 NPU 轉(zhuǎn)換 YOLO V3 模型

    原內(nèi)部格式表示文件,分別對(duì)應(yīng)原始模型文件yolov3.weights 和 yolov3.cfg創(chuàng)建 YML
    發(fā)表于 12-19 10:36

    yolov7 onnx模型在NPU上太慢了怎么解決?

    yolov7tiny.onnx。輸入大小為 224x224,但 npu 推理時(shí)間為 127 毫秒。好像太慢了。這個(gè)時(shí)間合理嗎?以下是我的onnx模型轉(zhuǎn)換步驟和我的onnxruntime執(zhí)行代碼: 1. 從 https
    發(fā)表于 04-04 06:13

    YOLOv3的darknet模型先轉(zhuǎn)為caffe模型后再轉(zhuǎn)為fp32bmodel,模型輸出和原始模型輸出存在偏差是怎么回事?

    YOLOv3的darknet模型先轉(zhuǎn)為caffe模型后再轉(zhuǎn)為fp32bmodel,模型輸出和原始模型
    發(fā)表于 09-19 06:26

    一個(gè)YOLO系列的算法實(shí)現(xiàn)庫(kù)YOLOU

    這里主要是對(duì)于YOLO系列經(jīng)典化模型的訓(xùn)練對(duì)比,主要是對(duì)于YOLOv5、YOLOv6YOLOv7以及YOLOX的對(duì)比,部分模型還在訓(xùn)練之中
    的頭像 發(fā)表于 07-31 11:47 ?2032次閱讀

    關(guān)于YOLOU中模型的測(cè)試

    整個(gè)算法完全是以YOLOv5的框架進(jìn)行,主要包括的目標(biāo)檢測(cè)算法有:YOLOv3、YOLOv4、YOLOv5、YOLOv5-Lite、
    的頭像 發(fā)表于 08-16 10:24 ?991次閱讀

    YOLOv8版本升級(jí)支持小目標(biāo)檢測(cè)與高分辨率圖像輸入

    YOLOv8版本最近版本又更新了,除了支持姿態(tài)評(píng)估以外,通過(guò)模型結(jié)構(gòu)的修改還支持了小目標(biāo)檢測(cè)與高分辨率圖像檢測(cè)。原始的YOLOv8模型
    的頭像 發(fā)表于 05-16 11:14 ?1.4w次閱讀
    <b class='flag-5'>YOLOv</b>8版本升級(jí)支持小目標(biāo)檢測(cè)與高分辨率圖像<b class='flag-5'>輸入</b>

    YOLOv6在LabVIEW中的推理部署(含源碼)

    YOLOv6 是美團(tuán)視覺(jué)智能部研發(fā)的一款目標(biāo)檢測(cè)框架,致力于工業(yè)應(yīng)用。如何使用python進(jìn)行該模型的部署,官網(wǎng)已經(jīng)介紹的很清楚了,但是對(duì)于如何在LabVIEW中實(shí)現(xiàn)該模型的部署,筆者目前還沒(méi)有看到
    的頭像 發(fā)表于 11-06 16:07 ?835次閱讀
    <b class='flag-5'>YOLOv6</b>在LabVIEW中的推理部署(含源碼)

    一文徹底搞懂YOLOv8【網(wǎng)絡(luò)結(jié)構(gòu)+代碼+實(shí)操】

    從上面可以看出,YOLOv8 主要參考了最近提出的諸如 YOLOX、YOLOv6YOLOv7 和 PPYOLOE 等算法的相關(guān)設(shè)計(jì),本身的創(chuàng)新點(diǎn)不多,偏向工程實(shí)踐,主推的還是 ultralytics 這個(gè)框架本身。
    的頭像 發(fā)表于 06-15 17:15 ?1.4w次閱讀
    一文徹底搞懂<b class='flag-5'>YOLOv</b>8【網(wǎng)絡(luò)<b class='flag-5'>結(jié)構(gòu)</b>+代碼+實(shí)操】

    YOLOv8+OpenCV實(shí)現(xiàn)DM碼定位檢測(cè)與解析

    YOLOv8是YOLO系列模型的最新王者,各種指標(biāo)全面超越現(xiàn)有對(duì)象檢測(cè)與實(shí)例分割模型,借鑒了YOLOv5、YOLOv6、YOLOX等
    的頭像 發(fā)表于 08-10 11:35 ?1619次閱讀
    <b class='flag-5'>YOLOv</b>8+OpenCV實(shí)現(xiàn)DM碼定位檢測(cè)與解析

    深度學(xué)習(xí)YOLOv3 模型設(shè)計(jì)的基本思想

    在檢測(cè)任務(wù)中,將圖中C0后面的平均池化、全連接層和Softmax去掉,保留從輸入到C0部分的網(wǎng)絡(luò)結(jié)構(gòu),作為檢測(cè)模型的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),也稱為骨干網(wǎng)絡(luò)
    發(fā)表于 10-17 10:32 ?474次閱讀
    深度學(xué)習(xí)<b class='flag-5'>YOLOv</b>3 <b class='flag-5'>模型</b>設(shè)計(jì)的基本思想
    主站蜘蛛池模板: 免费观看a黄一级视频 | 黑人性xxxⅹxxbbbbb| 婷婷综合激六月情网 | 色偷偷亚洲天堂 | 美女写真福利视频 | 亚洲第一视频 | 亚洲国产人久久久成人精品网站 | 高清视频在线观看+免费 | 国产精品毛片一区二区三区 | 在线免费观看视频你懂的 | 藏经阁在线观看 | 一级片观看 | 亚洲夜夜爱 | 一区二区三区视频免费观看 | 欧美人与动欧交视频 | 国内精品第一页 | 九九九精品 | 丁香花在线影院观看在线播放 | 4455ee日本高清免费观看 | 天天综合天天干 | 黄在线视频 | 国产精品亚洲四区在线观看 | 日韩污| 天天爽天天爽天天片a久久网 | www.av天天 | 韩国成人毛片aaa黄 韩国床戏合集三小时hd中字 | 成年网站在线看 | 717影院理伦午夜论八戒 | 手机看片国产免费久久网 | 伊人网成人 | 久久国产美女免费观看精品 | 国产精品午夜自在在线精品 | 性生活毛片 | 国产精品免费看久久久香蕉 | 天天做天天爱天天操 | 中文在线三级中文字幕 | 黄在线网站 | 天天上天天操 | 夜夜操夜夜爽 | 康熙古代高h细节肉爽文全文 | 亚洲国产精品第一页 |