這個項目能夠為消防員提供紅外視覺感,以幫助他們從燃燒的建筑物中營救人員。
背景
熱像儀 (TIC) 已被證明是消防員的寶貴工具。它們使消防員能夠更快地找到受害者,更一致地成功駛出燃燒的房屋,并減少令人滿意地完成搜索所需的時間。然而,一些問題仍然存在。尋找受害者時,需要花費時間拉出 TIC,進行設置并讀取顯示。手持 TIC 顯示器在濃煙中難以準確看到,導致受害者定位較慢。使用顯示器需要操作員將他們的眼睛和注意力從周圍的環境中移開,從而導致意識喪失并增加隧道視力的風險。
利用機器學習為消防員提供紅外線 (IR) 感覺的感官替代設備將是一個有用的工具。這將減少消防員在顯示器上將視線從周圍環境中移開的次數(也降低了隧道視力的風險),因為他們將不再覺得需要不斷地監控 TIC 顯示器,因為他們將不斷地獲得重要的 IR 信息。當感覺到適當的刺激時,他們將能夠更快地做出反應,而不是不得不參考顯示器,從而減少受害者的救援時間。直接將關鍵信息流式傳輸給消防員將減少顯示器在濃煙中的低能見度成為問題的情況。總體而言,具有 IR 意識的消防員在搜救行動中會更有效。
如何設置項目
我們將 Qwiic 電纜(面包板跳線(4 針))連接到 MLX90640 SparkFun IR Array Breakout (MLX)。四根線(黑、紅、黃、藍)分別代表GND、VIN(3.3V)、SCL、SDA。
因為我們的 Qwiic 電纜不是母跳線,所以我們使用四根 ff 面包板線將 Qwiic 電纜引腳連接到 Raspberry Pi (Pi)。在下圖中,可以看到黑色、紅色、黃色和藍色 Qwiic 引腳分別連接到棕色、紅色、黃色和橙色 ff 面包板線。
ff 面包板線的顏色并不重要,但關鍵是 Qwiic 電纜 GND、VIN、SCL 和 SDA 引腳連接到適當的 Pi 引腳(分別為引腳 6、1、5 和 3)。下面可以看到 Pi 引腳分配指南以及我們與 Pi 的連接。
完成后,我們創建了一個小紙板相機支架,通過切掉披薩盒的一側來幫助支撐相機。此步驟不是必需的,因此請隨意跳過它或自己制作。
實施概述
將相機連接到樹莓派
使用 Adafruit 庫,我們能夠從 MLX90640 熱像儀中讀取數據。
import adafruit_mlx90640
import time,board,busio
i2c = busio.I2C(board.SCL, board.SDA, frequency=1000000) # setup I2C
mlx = adafruit_mlx90640.MLX90640(i2c) # begin MLX90640 with I2C comm
mlx.refresh_rate = adafruit_mlx90640.RefreshRate.REFRESH_2_HZ # set refresh rate
frame = [0]*768 # setup array for storing all 768 temperatures
mlx.getFrame(frame)
此時,我們將溫度數據存儲在一個數組中,準備好進行預處理。
預處理原始溫度數據并提供給分類服務
我們的預處理步驟需要將溫度數據轉換為稍后可以輸入到我們的邊緣脈沖模型中的圖像。這是使用Matplotlib 庫完成的,然后將圖像保存到 Buffer Stream 并編碼為 base64 字符串。
mlx.getFrame(frame)
mlx_shape = (24,32)
fig = plt.figure(frameon=False)
ax = plt.Axes(fig, [0., 0., 1., 1.])
ax.set_axis_off()
fig.add_axes(ax)
thermal_image = ax.imshow(np.zeros(mlx_shape), aspect='auto')
MIN= 18.67
MAX= 43.68
data_array = (np.reshape(frame,mlx_shape)) # reshape to 24x32
thermal_image.set_data(np.fliplr(data_array)) # flip left to right
thermal_image.set_clim(vmin=MIN,vmax=MAX) # set bounds
buf = io.BytesIO()
fig.savefig(buf,format='jpg',facecolor='#FCFCFC',bbox_inches='tight')
img_b64 = base64.b64encode(buf.getvalue()).decode()
buf.close()
plt.close(fig)
使用 http post 請求將 base64 字符串和原始幀數據發送到我們的分類微服務。微服務將通過 Edge Impulse 模型運行圖像,并經過一些后處理(如下所述)返回一個標志,說明是否在幀中檢測到一個人,如果是,那么他們是什么方向,即左、中、右。
分類服務
分類服務接受一個 post 請求,請求中包含兩個數據對象:原始數據數組和以 base64 表示的圖像。圖像在被傳遞到分類器之前需要進行預處理。首先,我們必須提取圖像的原始特征。圖像被解碼為圖像緩沖區,然后將其轉換為圖像的十六進制表示。這個十六進制字符串被分割成單獨的 RGB 值并轉換成整數,準備處理到分類器中。
let raw_features = [];
let img_buf = Buffer.from(request.body.image, 'base64')
try{
let buf_string = img_buf.toString('hex');
// store RGB pixel value and convert to integer
for (let i=0; i raw_features.push(parseInt(buf_string.slice(i, i+6), 16));
}
} catch(error) {
throw new Error("Error Processing Incoming Image");
}
原始特征被輸入到分類器中,并返回一個由兩個標簽組成的對象。標簽是圖像中的人和不在圖像中的人的置信度等級。
let result = {"hasPerson":false}
let classifier_result = classifier.classify(raw_features);
no_person_value = 0
person_value = 0
if(classifier_result["results"][0]["label"] === "no person"){
no_person_value = classifier_result["results"][0]["value"]
} else {
throw new Error("Invalid Model Classification Post Processing")
}
if(classifier_result["results"][3]["label"] === "person"){
person_value = classifier_result["results"][3]["value"]
} else {
throw Error("Invalid Model Classification Post Processing")
}
然后將這兩個標簽值與我們的置信度閾值進行比較,以確定是否有人在幀中看到過。如果沒有,分類器服務會使用一個包含一個字段的對象來響應發布請求:
“hasPerson”=假。
然而,如果置信值達到或超過閾值標準,則使用原始溫度數據來確定熱源來自幀中的哪個位置。
if(person_value > person_threshold
&& no_person_value < no_person_threshold){
result["hasPerson"] = true
// If is person find brightspot in the image
let frame_data = request.body.frame
let column_average = new Array(32)
index_count = 0;
for(let j = 0; j < 24; j++){
for (let i = 0; i < 32; i ++){
column_average[i] = (column_average[i] || 0)
+ parseFloat(frame_data[index_count])
index_count++
}}
left_avg = 0
centre_avg = 0
right_avg = 0
for(let i = 0; i < 16; i++){
left_avg = left_avg + column_average[i]
}
for(let i = 8; i < 24; i++){
centre_avg = centre_avg + column_average[i]
}
for(let i = 17; i < 32; i++){
right_avg = right_avg + column_average[i]
}
var direction
if(left_avg > centre_avg && left_avg > right_avg){
direction = 1
} else if (centre_avg > left_avg && centre_avg > right_avg){
direction = 2
} else if (right_avg > left_avg && right_avg > centre_avg){
direction = 3
} else {
direction = 4
}
result["direction"]=direction
一個響應對象從 post 請求中返回,帶有兩個值:
“hasPerson” = 真
“方向” = <方向值>
我們使用Python 的 Neosensory SDK以便在將 Buzz 與 Pi 配對后向 Buzz 發送電機命令。我們選擇使用時空掃描(“在空間和時間上編碼的模式”),因為 Novich 和 Eagleman [2] 的一項研究發現,與空間模式和由以下組成的模式相比,它們是將數據編碼到皮膚的最佳方法單個電機通過振動刺激皮膚區域。時空掃描的更高識別性能允許通過皮膚進行更大的信息傳輸 (IT),這意味著消防員可以接收更多有用的信息(以及獲得的 IR 感知的更大潛在有效性)。因為我們只關心三個方向值,所以創建了三個掃描數組來描述一個人在框架的左側、右側或中心,如下所示:
sweep_left = [255,0,0,0,0,255,0,0,0,0,255,0,0,0,0,255,0,0,0,0]
sweep_right = [0,0,0,255,0,0,255,0,0,255,0,0,255,0,0,0,0,0,0,0]
sweep_centre = [255,0,0,0,0,255,0,0,0,0,0,255,0,0,255,0,0,0,0,0]
當 Pi 接收到一個響應對象,該對象表示框架中有一個人以及他們在框架中的什么位置時,就會向 Buzz 發送一個振動電機命令:
if(response['hasPerson'] == True):
print("has person")
if(response['direction']):
print(response['direction'])
if response['direction'] == 1:
await my_buzz.vibrate_motors(sweep_right)
print("Right")
elif response['direction'] == 2:
await my_buzz.vibrate_motors(sweep_centre)
print("Centre")
elif response['direction'] == 3:
await my_buzz.vibrate_motors(sweep_left)
print("Left")
else:
print("inconclusive")
else:
print("no person")
我們發現每次運行代碼時都必須將 Buzz 置于配對模式,以最大程度地減少發送命令時 Buzz 不振動的可能性。
邊緣脈沖
數據集收集
當 MLX 指向某人時,768 個溫度值的數組被保存在一個 .txt 文件中。這些文件的組織方式是為了便于上傳到 Edge Impulse,其中有人在框架中,哪些地方在框架中有物體(例如散熱器或狗);哪些地方什么都沒有。
數據預處理
我們為訓練模型而對數據進行預處理的方法與我們處理來自上述攝像頭的實時信息的方法類似,只是數據源是包含溫度值的文本文件。我們編寫了一個 python 腳本來遍歷所有這些文件并將它們輸出為圖像。在將溫度轉換為圖像時,我們需要有一個最小值和最大值來分配給顏色范圍。為了找到這些最小值、最大值,我們在約 400 個溫度陣列的數據集中找到了最低和最高溫度。
創建模型
使用 Edge Impulse,我們上傳了帶有適當標簽“人員”和“無人”的收集數據,并允許數據在訓練和測試之間自動拆分。對于脈沖設計,我們嘗試了處理和學習模塊的不同組合(例如圖像和神經網絡 (Keras)),但我們發現使用我們的數據,圖像處理模塊和遷移學習學習模塊的性能最好。
我們使用 RGB 作為顏色深度參數,然后生成特征。
我們將訓練周期數設置為 20,學習率為 0.0005,并將最小置信度設置為 0.6。
我們將沖動部署為具有默認優化的 WebAssembly 庫。
模型運行
該模型運行良好,但存在一些問題,因為它偶爾會輸出誤報和漏報。下面是當有人直接坐在 MLX 前面并且模型正確識別出他們位于框架中心時,在我們的節點 js 服務器和 Pi 上的 Python 代碼中運行的模型輸出的一些屏幕截圖:
未來的可能
改進的熱成像相機
雖然 MLX 對家庭愛好者來說是一款出色的 TIC,但我們認為它在幫助消防員拯救生命方面并不能勝任。此處可見的像 FLIR K53 這樣的“高性能”TIC具有令人印象深刻的 320x240 分辨率(與 MLX 的 768 相比,總像素為 76800)和 60 Hz 的刷新率。更復雜的 TIC(具有更高的分辨率和刷新率)將使模型更容易準確地檢測人體形狀,并且有必要將這個項目變成產品。
模型的進一步訓練
我們還認為需要一個更復雜的模型才能將這個項目變成一個產品。該項目的下一步將是開發一個模型,該模型可以檢測同一幀中的多個人,并且不僅輸出是否在幀中檢測到一個人,還輸出他們在幀中的位置。該模型應根據 x 軸和 y 軸給出位置。如果可能,應傳達有關人員與攝像機的距離的信息,甚至是有關人員“可見”程度的信息(例如,如果僅檢測到手臂,則模型應傳達人員“部分可見”是由于障礙物,例如床或瓦礫)。
對于這個項目,我們有一個非常簡單的觸覺語言,它只需要傳達關于三個位置的信息。展望未來,隨著模型輸出更多信息,需要設計更精細的觸覺語言。這可以與位于消防員身體上的更大陣列的執行器一起使用,以促進更豐富的時空掃描。最終產品可能旨在讓消防員穿著觸覺袖子或背心,而不是一個 Buzz。
-
熱像儀
+關注
關注
0文章
369瀏覽量
23969 -
MLX90640
+關注
關注
3文章
22瀏覽量
1270
發布評論請先 登錄
相關推薦
評論