來源:深度學(xué)習(xí)愛好者
簡介
TensorFlow和Keras最常見的用途之一是圖像識別/分類。通過本文,您將了解如何使用Keras達(dá)到這一目的。
定義
如果您不了解圖像識別的基本概念,將很難完全理解本文的內(nèi)容。因此在正文開始之前,讓我們先花點(diǎn)時(shí)間來了解一些術(shù)語。
TensorFlow/Keras
TensorFlow是Google Brain團(tuán)隊(duì)創(chuàng)建的一個(gè)Python開源庫,它包含許多算法和模型,能夠?qū)崿F(xiàn)深度神經(jīng)網(wǎng)絡(luò),用于圖像識別/分類和自然語言處理等場景。TensorFlow是一個(gè)功能強(qiáng)大的框架,通過實(shí)現(xiàn)一系列處理節(jié)點(diǎn)來運(yùn)行,每個(gè)節(jié)點(diǎn)代表一個(gè)數(shù)學(xué)運(yùn)算,整個(gè)系列節(jié)點(diǎn)被稱為“圖”。Keras是一個(gè)高級API(應(yīng)用程序編程接口),支持TensorFlow(以及像Theano等其他ML庫)。其設(shè)計(jì)原則旨在用戶友好和模塊化,盡可能地簡化TensorFlow的強(qiáng)大功能,在Python下使用無需過多的修改和配置圖像識別(分類)
圖像識別是指將圖像作為輸入傳入神經(jīng)網(wǎng)絡(luò)并輸出該圖像的某類標(biāo)簽。該標(biāo)簽對應(yīng)一個(gè)預(yù)定義的類。圖像可以標(biāo)記為多個(gè)類或一個(gè)類。如果只有一個(gè)類,則應(yīng)使用術(shù)語“識別”,而多類識別的任務(wù)通常稱為“分類”。
圖像分類的子集是對象檢測,對象的特定實(shí)例被識別為某個(gè)類如動物,車輛或者人類等。
特征提取
為了實(shí)現(xiàn)圖像識別/分類,神經(jīng)網(wǎng)絡(luò)必須進(jìn)行特征提取。特征作為數(shù)據(jù)元素將通過網(wǎng)絡(luò)進(jìn)行反饋。在圖像識別的特定場景下,特征是某個(gè)對象的一組像素,如邊緣和角點(diǎn),網(wǎng)絡(luò)將通過分析它們來進(jìn)行模式識別。
特征識別(或特征提?。┦菑妮斎雸D像中拉取相關(guān)特征以便分析的過程。許多圖像包含相應(yīng)的注解和元數(shù)據(jù),有助于神經(jīng)網(wǎng)絡(luò)獲取相關(guān)特征。
神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)識別圖像
直觀地了解神經(jīng)網(wǎng)絡(luò)如何識別圖像將有助于實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)模型,因此在接下來的幾節(jié)中將簡要介紹圖像識別過程。
使用濾波器進(jìn)行特征提取
圖片來源:commons.wikimedia.org
神經(jīng)網(wǎng)絡(luò)的第一層接收圖像的所有像素。當(dāng)所有的數(shù)據(jù)傳入網(wǎng)絡(luò)后,將不同的濾波器應(yīng)用于圖像,構(gòu)成圖像不同部分的表示。這是特征提取,它創(chuàng)建了“特征映射”。
從圖像中提取特征的過程是通過“卷積層”完成的,并且卷積只是形成圖像的部分表示。由卷積的概念延伸出卷積神經(jīng)網(wǎng)絡(luò)(CNN)這一術(shù)語,它是圖像分類/識別中最常用的神經(jīng)網(wǎng)絡(luò)類型。
如果您無法想象特征映射是如何創(chuàng)建的,可以試想將手電筒照在暗室圖片的景象。當(dāng)光束滑過圖片時(shí),您正在學(xué)習(xí)圖像的特征。在這個(gè)比喻中,手電筒發(fā)射的光束就是濾波器,它被網(wǎng)絡(luò)用于形成圖像的表示。
光束的寬度控制著一次掃過的圖像的區(qū)域大小,神經(jīng)網(wǎng)絡(luò)具有類似的參數(shù),即濾波器的大小。它影響一次掃過的圖像的像素?cái)?shù)。CNN中常見的濾波器尺寸為3,這包括高度和寬度,因此所掃描的像素區(qū)域大小為3×3。
圖片來源:commons.wikimedia.org
雖然濾波器的尺寸覆蓋其高度和寬度,同時(shí)也需要明確濾波器的深度。
2D圖像如何具有深度?
數(shù)字圖像被渲染為高度、寬度和一些定義像素顏色的RGB值,因此被跟蹤的“深度”是圖像具有的顏色通道的數(shù)量?;叶龋ǚ遣噬﹫D像僅包含1個(gè)顏色通道,而彩色圖像包含3個(gè)顏色通道。
這意味著對于應(yīng)用于全彩色圖像的尺寸為3的濾波器,其規(guī)模為3×3×3。對于該濾波器覆蓋的每個(gè)像素,神經(jīng)網(wǎng)絡(luò)將濾波器的值和像素本身的值相乘以獲取像素的數(shù)值表示。然后,對整個(gè)圖像完成上述過程以實(shí)現(xiàn)完整的表示。根據(jù)參數(shù)“步幅”,濾波器在圖像的其余部分滑動。該參數(shù)定義了在計(jì)算當(dāng)前位置的值之后,濾波器要滑動的像素?cái)?shù)。CNN的默認(rèn)步幅取值為2。
通過上述計(jì)算,最終將獲取特征映射。此過程通常由多個(gè)濾波器完成,這有助于保持圖像的復(fù)雜性。
激活函數(shù)
當(dāng)圖像的特征映射創(chuàng)建完成之后,表示圖像的值將通過激活函數(shù)或激活層進(jìn)行傳遞。受卷積層的影響,激活函數(shù)獲取的表示圖像的值呈線性,并且由于圖像本身是非線性的,因此也增加了該值的非線性。
盡管偶爾會使用一些其他的激活函數(shù),線性整流函數(shù)(Rectified Linear Unit, ReLU)是最常用的。
池化層
當(dāng)數(shù)據(jù)被激活之后,它們將被發(fā)送到池化層。池化對圖像進(jìn)行下采樣,即獲取圖像信息并壓縮,使其變小。池化過程使網(wǎng)絡(luò)更加靈活,更擅長基于相關(guān)特征來識別對象/圖像。
當(dāng)觀察圖像時(shí),我們通常不關(guān)心背景信息,只關(guān)注我們關(guān)心的特征,例如人類或動物。
類似地,CNN的池化層將抽象出圖像不必要的部分,僅保留相關(guān)部分。這由池化層指定的大小進(jìn)行控制。
由于池化層需要決定圖像中最相關(guān)的部分,所以希望神經(jīng)網(wǎng)絡(luò)只學(xué)習(xí)真正表示所討論對象的部分圖像。這有助于防止過度擬合,即神經(jīng)網(wǎng)絡(luò)很好地學(xué)習(xí)了訓(xùn)練案例,并無法類推到新數(shù)據(jù)。
池化值的方式有多種,最大池化(max pooling)是最常用的。最大池化獲取單個(gè)濾波器中像素的最大值。假設(shè)使用卷積核大小為2×2的濾波器,將會丟失3/4的信息。
使用像素的最大值以便考慮可能的圖像失真,并且減小圖像的參數(shù)/尺寸以便控制過度擬合。還有一些其他的池化類型,如均值池化(average pooling)和求和池化(sum pooling),但這些并不常用,因?yàn)樽畲蟪鼗_度更高。
壓平(Flattening)
CNN的最后一層,即稠密層,要求數(shù)據(jù)采用要處理的矢量形式。因此,數(shù)據(jù)必須“壓平”。值將被壓縮成向量或按順序排列的列。
全連接層
CNN的最后一層是稠密層,或人工神經(jīng)網(wǎng)絡(luò)(ANN)。ANN主要用于分析輸入特征并將其組合成有助于分類的不同屬性。這些層基本上形成了代表所討論對象的不同部分的神經(jīng)元集合,并且這些集合可能代表狗松軟的耳朵或者蘋果的紅色。當(dāng)足夠的神經(jīng)元被激活用于響應(yīng)輸入圖像時(shí),該圖像將被分類為某個(gè)對象。
圖片來源:commons.wikimedia.org
數(shù)據(jù)集中計(jì)算值和期望值之間的誤差由ANN進(jìn)行計(jì)算。然后網(wǎng)絡(luò)經(jīng)過反向傳播,計(jì)算給定神經(jīng)元對下一層神經(jīng)元的影響并對其進(jìn)行調(diào)整。如此可以優(yōu)化模型的性能,然后一遍又一遍地重復(fù)該過程。以上就是神經(jīng)網(wǎng)絡(luò)如何訓(xùn)練數(shù)據(jù)并學(xué)習(xí)輸入特征和輸出類之間的關(guān)聯(lián)。
中間的全連接層的神經(jīng)元將輸出與可能的類相關(guān)的二進(jìn)制值。如果有四個(gè)不同的類(例如狗,汽車,房子以及人),神經(jīng)元對于圖像代表的類賦“1”,對其他類賦“0”。最終的全連接層將接收之前層的輸出,并傳遞每個(gè)類的概率,總和為1。如果“狗”這一類別的值為0.75,則表示該圖像是狗的確定性為75%。至此圖像分類器已得到訓(xùn)練,并且可以將圖像傳入CNN,CNN將輸出關(guān)于該圖像內(nèi)容的猜想。
機(jī)器學(xué)習(xí)的工作流
在開始訓(xùn)練圖像分類器的示例之前,讓我們先來了解一下機(jī)器學(xué)習(xí)的工作流程。訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的過程是相當(dāng)標(biāo)準(zhǔn)的,可以分為四個(gè)不同的階段。
數(shù)據(jù)準(zhǔn)備
首先,需要收集數(shù)據(jù)并將其放入網(wǎng)絡(luò)可以訓(xùn)練的表中。這涉及收集圖像并標(biāo)記它們。即使下載了其他人準(zhǔn)備好的數(shù)據(jù)集,也可能需要進(jìn)行預(yù)處理,然后才能用于訓(xùn)練。數(shù)據(jù)準(zhǔn)備本身就是一門藝術(shù),包括處理缺失值,數(shù)據(jù)損壞,格式錯(cuò)誤的數(shù)據(jù),不正確的標(biāo)簽等。
創(chuàng)建模型
創(chuàng)建神經(jīng)網(wǎng)絡(luò)模型涉及各種參數(shù)和超參數(shù)的選擇。需要確定所用模型的層數(shù),層輸入和輸出的大小,所用激活函數(shù)的類型,以及是否使用dropout等。
訓(xùn)練模型
創(chuàng)建模型后,只需創(chuàng)建模型實(shí)例并將其與訓(xùn)練數(shù)據(jù)相匹配即可。訓(xùn)練模型時(shí),一個(gè)重要的因素即訓(xùn)練所需時(shí)間。您可以通過指定訓(xùn)練的epoch數(shù)目來指定網(wǎng)絡(luò)的訓(xùn)練時(shí)長。時(shí)間越長,其性能就越高,但是epoch次數(shù)過多將存在過度擬合的風(fēng)險(xiǎn)。
您可以適當(dāng)?shù)卦O(shè)置訓(xùn)練時(shí)的epoch數(shù)目,并且通常會保存訓(xùn)練周期之間的網(wǎng)絡(luò)權(quán)重,這樣一旦在訓(xùn)練網(wǎng)絡(luò)方面取得進(jìn)展時(shí),就無需重新開始了。
模型評估
評估模型有多個(gè)步驟。評估模型的第一步是將模型與驗(yàn)證數(shù)據(jù)集進(jìn)行比較,該數(shù)據(jù)集未經(jīng)模型訓(xùn)練過,可以通過不同的指標(biāo)分析其性能。評估神經(jīng)網(wǎng)絡(luò)模型的性能有各種指標(biāo),最常見的指標(biāo)是“準(zhǔn)確率”,即正確分類的圖像數(shù)量除以數(shù)據(jù)集中的圖像總和。在了解模型性能在驗(yàn)證數(shù)據(jù)集上的準(zhǔn)確率后,通常會微調(diào)參數(shù)并再次進(jìn)行訓(xùn)練,因?yàn)槭状斡?xùn)練的結(jié)果大多不盡人意,重復(fù)上述過程直到對準(zhǔn)確率感到滿意為止。
最后,您將在測試集上測試網(wǎng)絡(luò)的性能。該測試集是模型從未用過的數(shù)據(jù)。
也許您在想:為什么要用測試集呢?如果想了解模型的準(zhǔn)確率,采用驗(yàn)證數(shù)據(jù)集不就可以了嗎?
采用網(wǎng)絡(luò)從未訓(xùn)練過的一批數(shù)據(jù)進(jìn)行測試是有必要的。因?yàn)樗袇?shù)的調(diào)整,結(jié)合對驗(yàn)證集的重新測試,都意味著網(wǎng)絡(luò)可能已經(jīng)學(xué)會了驗(yàn)證集的某些特征,這將導(dǎo)致無法推廣到樣本外的數(shù)據(jù)。
因此,測試集的目的是為了檢測過度擬合等問題,并且使模型更具實(shí)際的應(yīng)用價(jià)值。
-
圖像識別
+關(guān)注
關(guān)注
9文章
526瀏覽量
38928 -
python
+關(guān)注
關(guān)注
56文章
4825瀏覽量
86268 -
tensorflow
+關(guān)注
關(guān)注
13文章
330瀏覽量
61049
發(fā)布評論請先 登錄
AI圖像識別攝像機(jī)

評論