怎樣用蘋果CoreML實(shí)現(xiàn)iPhone的目標(biāo)識(shí)別
推薦 + 挑錯(cuò) + 收藏(0) + 用戶評(píng)論(0)
在WWDC 2017上,蘋果首次公布了機(jī)器學(xué)習(xí)方面的動(dòng)作。iOS系統(tǒng)早已支持Machine Learning 和 Computer Vision ,但這次蘋果提供了更合理,容易上手的API,讓那些對(duì)基礎(chǔ)理論知識(shí)一竅不通的門外漢也能玩轉(zhuǎn)高大上的前沿科技。
這篇文章介紹了通過蘋果最新的API把YOLO模型集成到APP中的兩種方法。此前,AI100(rgznai100)介紹過YOLO這個(gè)項(xiàng)目,它是一個(gè)用于攝像頭的實(shí)時(shí)目標(biāo)檢測(cè)系統(tǒng),詳情請(qǐng)參閱:《YOLO一眼就能認(rèn)出你:看一個(gè)神經(jīng)網(wǎng)絡(luò)如何全視野實(shí)時(shí)檢測(cè)目標(biāo)》
作者 | Matthijs Hollemans
編譯 | AI100(rgznai100)
參與 | thinkdeeper、胡永波
幾周前,我寫了篇關(guān)于YOLO(一個(gè)用于目標(biāo)檢測(cè)的神經(jīng)網(wǎng)絡(luò)模型)的教程。并且我使用Metal Performance Shader和我的Forge神經(jīng)網(wǎng)絡(luò)庫,實(shí)現(xiàn)了該版本的YOLO(實(shí)際上是Tiny YOLO)。
關(guān)于YOLO的教程
http://machinethink.net/blog/object-detection-with-yolo/
Forge神經(jīng)網(wǎng)絡(luò)庫
https://github.com/hollance/Forge
此后,蘋果公司宣布了可以在設(shè)備上應(yīng)用機(jī)器學(xué)習(xí)的兩種新技術(shù):Core ML和MPS graph API(Core ML 構(gòu)建于MPS之上,MPS更底層)。在這篇博文中,我們會(huì)使用這些新的API來實(shí)現(xiàn)Tiny YOLO。
在設(shè)備上應(yīng)用機(jī)器學(xué)習(xí)的兩種新技術(shù)
http://machinethink.net/blog/ios-11-machine-learning-for-everyone
快速回顧:YOLO是由9個(gè)卷積層和6個(gè)最大池化層組成的神經(jīng)網(wǎng)絡(luò),但其最后一層不會(huì)像分類器那樣輸出概率分布。相反,最后一層產(chǎn)生13×13×125張量。
該輸出張量描述了13×13個(gè)單元格。每個(gè)單元格預(yù)測(cè)5個(gè)邊界框(每個(gè)邊界框由25個(gè)數(shù)字描述)。然后,我們使用非最大抑制來找到最佳邊界框。
非常好我支持^.^
(0) 0%
不好我反對(duì)
(0) 0%
下載地址
怎樣用蘋果CoreML實(shí)現(xiàn)iPhone的目標(biāo)識(shí)別下載
相關(guān)電子資料下載
- 基于Vitis AI的ADAS目標(biāo)識(shí)別 1477
- 機(jī)器視覺的基本功能包括哪些? 265
- 超詳細(xì)!一文講透機(jī)器視覺常用的 3 種“目標(biāo)識(shí)別”方法 231
- 淺談雷達(dá)的探測(cè)、跟蹤、抗干擾和目標(biāo)識(shí)別技術(shù) 516
- XenP影系列毫米波傳感器優(yōu)化人體測(cè)距定位和多目標(biāo)識(shí)別功能 1012
- 基于灰度共生矩陣(GLCM)的遙感圖像圖片特征提取 831
- 機(jī)器視覺常用的三種目標(biāo)識(shí)別方法解析 435
- 低速無人駕駛汽車適用的目標(biāo)識(shí)別感知控制算法 186
- 機(jī)器視覺常用的3種目標(biāo)識(shí)別方法 456
- 機(jī)器視覺目標(biāo)識(shí)別方法解析:Blob分析法、模板匹配法、深度學(xué)習(xí)法 2201