英語原文:
What is the difference between Object Detection and Image Segmentation?
翻譯:雷鋒字幕組(明明知道)
人工智能對(duì)于圖像處理有不同的任務(wù)。在本文中,我將介紹目標(biāo)檢測(cè)和圖像分割之間的區(qū)別。
在這兩個(gè)任務(wù)中,我們都希望找到圖像中某些感興趣的項(xiàng)目的位置。例如,我們可以有一組安全攝像頭照片,在每張照片上,我們想要識(shí)別照片中所有人的位置。
通常有兩種方法可以用于此:目標(biāo)檢測(cè)(Object Detection)和圖像分割(Image Segmentation)。
目標(biāo)檢測(cè)-預(yù)測(cè)包圍盒
當(dāng)我們說到物體檢測(cè)時(shí),我們通常會(huì)說到邊界盒。這意味著我們的圖像處理將在我們的圖片中識(shí)別每個(gè)人周圍的矩形。
邊框通常由左上角的位置(2 個(gè)坐標(biāo))和寬度和高度(以像素為單位)定義。
來自開放圖像數(shù)據(jù)集的注釋圖像。家庭堆雪人,來自 mwvchamber。在CC BY 2.0 許可下使用的圖像。
如何理解目標(biāo)檢測(cè)
如果我們回到任務(wù):識(shí)別圖片上的所有人,則可以理解通過邊界框進(jìn)行對(duì)象檢測(cè)的邏輯。
我們首先想到的解決方案是將圖像切成小塊,然后在每個(gè)子圖像上應(yīng)用圖像分類,以區(qū)別該圖像是否是人類。對(duì)單個(gè)圖像進(jìn)行分類是一項(xiàng)較容易的任務(wù),并且是對(duì)象檢測(cè)的一項(xiàng),因此,他們采用了這種分步方法。
當(dāng)前,YOLO模型(You Only Look Once)是解決此問題的偉大發(fā)明。YOLO模型的開發(fā)人員已經(jīng)構(gòu)建了一個(gè)神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)能夠立即執(zhí)行整個(gè)邊界框方法!
當(dāng)前用于目標(biāo)檢測(cè)的最佳模型
YOLO
Faster RCNN
目標(biāo)分割-預(yù)測(cè)掩模
一步一步地掃描圖像的邏輯替代方法是遠(yuǎn)離畫框,而是逐像素地注釋圖像。
如果你這樣做,你將會(huì)有一個(gè)更詳細(xì)的模型,它基本上是輸入圖像的一個(gè)轉(zhuǎn)換。
來自開放圖像數(shù)據(jù)集的注釋圖像。家庭堆雪人,來自 mwvchamber。在CC BY 2.0 許可下使用的圖像。
如何理解圖像分割
這個(gè)想法很基本:即使在掃描產(chǎn)品上的條形碼時(shí),也可以應(yīng)用一種算法來轉(zhuǎn)換輸入信息(通過應(yīng)用各種過濾器),這樣,除了條形碼序列以外的所有信息在最終圖像中都不可見。
這是在圖像上定位條形碼的基本方法,但與在圖像分割中所發(fā)生的情況類似。
圖像分割的返回格式稱為掩碼:與原始圖像大小相同的圖像,但是對(duì)于每個(gè)像素,它只有一個(gè)布爾值來指示對(duì)象是否存在。
如果我們?cè)试S多個(gè)類別,它就會(huì)變得更加復(fù)雜:例如,它可以將一個(gè)海灘景觀分為三類:空氣、海洋和沙子。
當(dāng)下圖像分割的最佳模型
Mask RCNN
Unet
Segnet
比較總結(jié)
對(duì)象檢測(cè)
輸入是一個(gè)矩陣(輸入圖像),每個(gè)像素有 3 個(gè)值(紅、綠、藍(lán)),如果是黑色和白色,則每個(gè)像素有 1 個(gè)值
輸出是由左上角和大小定義的邊框列表
圖像分割
輸入是一個(gè)矩陣(輸入圖像),每個(gè)像素有 3 個(gè)值(紅、綠、藍(lán)),如果是黑色和白色,則每個(gè)像素有 1 個(gè)值
輸出是一個(gè)矩陣(掩模圖像),每個(gè)像素有一個(gè)包含指定類別的值
編輯:jq
-
圖像處理
+關(guān)注
關(guān)注
27文章
1325瀏覽量
57769 -
人工智能
+關(guān)注
關(guān)注
1804文章
48788瀏覽量
246955
原文標(biāo)題:計(jì)算機(jī)視覺:圖像檢測(cè)和圖像分割有什么區(qū)別?
文章出處:【微信號(hào):jiqishijue2020,微信公眾號(hào):機(jī)器視覺自動(dòng)化】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
評(píng)論