91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MIT韓松團(tuán)隊(duì)開發(fā)全新微型深度學(xué)習(xí)技術(shù)MCUNet

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2020-12-04 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MCUNet能夠把深度學(xué)習(xí)單片機(jī)上做到 ImageNet 70% 以上的準(zhǔn)確率,我們的研究表明,在物聯(lián)網(wǎng)設(shè)備上在線進(jìn)行小資源機(jī)器學(xué)習(xí)的時(shí)代正在到來。”

近日,MIT 電子工程和計(jì)算機(jī)科學(xué)系助理教授韓松告訴 DeepTech,他所帶領(lǐng)的團(tuán)隊(duì)解決了此前由于單片機(jī)硬件資源的限制無法在物聯(lián)網(wǎng)設(shè)備上的進(jìn)行微型機(jī)器學(xué)習(xí)的難題。

今年 7 月,韓松團(tuán)隊(duì)發(fā)表的論文 “MCUNet: Tiny Deep Learning on IoT Devices” 中提出了 MCUNet 方案,可以通過高效的網(wǎng)絡(luò)架構(gòu)搜索(TinyNAS)和輕量推理引擎(TinyEngine)的聯(lián)合設(shè)計(jì),實(shí)現(xiàn)在 MCU(Microcontroller Unit 微控制單元,又稱單片機(jī))上運(yùn)行 ImageNet 級別的推理。該論文第一作者林己在接受 DeepTech 采訪時(shí)表示,“我們發(fā)現(xiàn),用我們的 MCUNet 方案,基本上相對輕量級的應(yīng)用,在手機(jī)上跑得比較快的應(yīng)用,都可以部署到單片機(jī)上。”

該論文顯示,相比谷歌的 TF-Lite Micro 與 ARM 的 CMSIS-NN 的傳統(tǒng)方案,使用 MCUNet 進(jìn)行學(xué)習(xí)推理所需要的內(nèi)存可以減少為原來的 29%,同時(shí)推理速度能夠提升 1.7-3.3 倍。

據(jù)了解,上述論文已入選今年的 AI 頂會 NeurIPS Spotlight,將在 12 月初進(jìn)行線上分享探討活動。

更讓人興奮的是,NeurIPS 舉行前夕,林己告訴 DeepTech,論文發(fā)表后,團(tuán)隊(duì)對 MCUNet 方案進(jìn)行了再度優(yōu)化,實(shí)現(xiàn)了運(yùn)行使用內(nèi)存縮減的同時(shí)推理速度的再提升。

DeepTech 了解到,目前,MCUNet 技術(shù)已與三家公司達(dá)成合作,同時(shí)更多公司表達(dá)了合作意向。

目前該技術(shù)大多用于語音或者視覺的關(guān)鍵詞檢測。語音檢測如大家熟悉的 Siri 以及 OK Google 之類;在視覺關(guān)鍵詞檢測方面,林己舉例說,比如人物識別應(yīng)用中,可以先使用基于 MCUNet 方案低功耗、低成本的硬件檢測攝像頭前是否有人,檢測結(jié)果顯示有人之后,再去開啟強(qiáng)大的、能耗高的下一級 AI 系統(tǒng)。如此一來,可以實(shí)現(xiàn)整個(gè)設(shè)備在能耗較低的待機(jī)狀態(tài)下隨時(shí)準(zhǔn)備激活的效果,降低成本的同時(shí),保持系統(tǒng)的高效工作。

MCUNet 實(shí)現(xiàn) IoT 設(shè)備上的微型機(jī)器學(xué)習(xí)

一直以來,深度學(xué)習(xí)在 IoT 微型設(shè)備上的運(yùn)行難點(diǎn)在于,單片機(jī)的硬件資源限制。因?yàn)閱纹瑱C(jī)的內(nèi)存資源僅為手機(jī)、GPU 的幾千分之一,這導(dǎo)致原本在手機(jī)和 GPU 上能夠完美運(yùn)行的 AI 方案,根本無法放入單片機(jī)中(模型大小過大),運(yùn)行就更是別想(activation過大)。先前的模型壓縮、網(wǎng)絡(luò)設(shè)計(jì)相關(guān)工作,主要是優(yōu)化減小神經(jīng)網(wǎng)絡(luò)的計(jì)算量或者模型大小,沒有考慮到運(yùn)行時(shí)神經(jīng)網(wǎng)絡(luò)的 activation 大小,這導(dǎo)致優(yōu)化過的神經(jīng)網(wǎng)絡(luò)也難以滿足單片機(jī)的資源限制。

對此,韓松團(tuán)隊(duì)開發(fā)的 MCUNet 方案,采用 TinyNAS 和 TinyEngine 結(jié)合的方式,能夠合理規(guī)劃單片機(jī)上僅有的內(nèi)存,并進(jìn)行高效的推理運(yùn)算。

其中,TinyNAS 需要通過兩個(gè)步驟完成對單片機(jī)有限的空間進(jìn)行合理規(guī)劃,以達(dá)到提升最終模型精確度的目的。

第一步,自動搜索神經(jīng)網(wǎng)絡(luò)空間來適配不同硬件的資源限制,找到可以滿足硬件資源限制的最高精度的搜索空間;第二步,根據(jù)不同搜索空間中神經(jīng)網(wǎng)絡(luò)計(jì)算量的分布,選擇特定單片機(jī)的自由搜索空間進(jìn)行網(wǎng)絡(luò)架構(gòu)的搜索。

搜索空間時(shí),需要輸入分辨率和網(wǎng)絡(luò)寬度進(jìn)行搜索。大概有 108 個(gè)可能的搜索空間配置,每個(gè)搜索空間配置包含 3.3×1025個(gè)子網(wǎng)絡(luò)。

韓松團(tuán)隊(duì)認(rèn)為,在內(nèi)存約束下更有可能生成高 FLOPS 模型的設(shè)計(jì)空間可以提供更高的模型容量,因此有可能實(shí)現(xiàn)高精度。對比紅色和黑色,使用紅色空間進(jìn)行神經(jīng)體系結(jié)構(gòu)搜索可達(dá)到 78.7% 的最終精度,而黑色空間則為 74.2%(在 ImageNet 100 上)。

圖 | TinyNAS 通過分析不同搜索空間的 FLOP CDF 來選擇最佳搜索空間

經(jīng)過 TinyNAS 的優(yōu)化,確保單片機(jī)在硬件資源最佳分配的狀態(tài)下使用 TinyEngine 展開推理運(yùn)算。

在推理運(yùn)算方面,傳統(tǒng)的機(jī)器學(xué)習(xí)方案 TF-Lite Micro 與 CMSIS-NN 采用的是基于解釋器的運(yùn)行框架。在推理運(yùn)行的同時(shí)進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)的解釋,所以需要將神經(jīng)網(wǎng)絡(luò)操作中所有可能用到的算子以及支持所有上級的代碼全部儲存,這必須要有足夠大的內(nèi)存才能夠承載。另外,解釋型框架是在運(yùn)行期間對神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)進(jìn)行解釋,這一動作也將增加運(yùn)行的負(fù)擔(dān)。

這種 “甜蜜的負(fù)擔(dān)” 對于 “身強(qiáng)力壯的巨人” 手機(jī)和 GPU 等內(nèi)存足夠大的設(shè)備并無大礙,但對于單片機(jī)這種自身?xiàng)l件有限的 “小家伙” 來說,簡直寸步難行,甚至有將其壓垮的架勢。

由此,韓松團(tuán)隊(duì)為 “小家伙” 量身定制了新的方案 ——MCUNet,林己向 DeepTech 介紹稱,MCUNet 使用 TinyEngine 框架,將神經(jīng)網(wǎng)絡(luò)的編譯和執(zhí)行步驟分開進(jìn)行。編譯階段明確決定好內(nèi)存的調(diào)度、執(zhí)行過程中的必備動作以及所需算子,在執(zhí)行過程中,微型處理器上只需要對當(dāng)前神經(jīng)網(wǎng)絡(luò)所執(zhí)行的任務(wù)需要的算子進(jìn)行儲存,內(nèi)存調(diào)度上也無需進(jìn)行動態(tài)處理。做到節(jié)省解釋時(shí)間的同時(shí),也讓內(nèi)存資源本就緊張的單片機(jī)能夠 “松一口氣”,讓更大模型神經(jīng)網(wǎng)絡(luò)的運(yùn)行看到一絲希望。

實(shí)驗(yàn)結(jié)果顯示,使用 TinyEngine 運(yùn)行之下的推理,與傳統(tǒng)框架 TF-Lite Micro 對比,推理速度提升了 3 倍,內(nèi)存占用縮減為1/4,在 ImageNet 上的準(zhǔn)確率則提高了 17%。

圖 | TinyEngine 與傳統(tǒng)框架推理效率、內(nèi)存占用峰值、精確度對比

值得注意的是,在該論文發(fā)表之后,韓松團(tuán)隊(duì)又加入了 in-place depthwise convolution 技術(shù),結(jié)合 TinyNAS 可以進(jìn)一步縮小神經(jīng)網(wǎng)絡(luò)運(yùn)行時(shí)的最大內(nèi)存,同時(shí)降低神經(jīng)網(wǎng)絡(luò)運(yùn)行的硬件需求,實(shí)現(xiàn) MCUNet 方案推理運(yùn)算下效率和準(zhǔn)確率的進(jìn)一步提升。另外,林己還提到,“現(xiàn)在我們還加入了目標(biāo)檢測相關(guān)的應(yīng)用,比如可以用來檢測人、車以及人有沒有戴口罩等,而此前主要關(guān)注分類方面的應(yīng)用”。

MCUNet 誕生于新冠疫情期間

“整體研發(fā)尤其后期,是在疫情下進(jìn)行的,同學(xué)們都是在隔離的條件下獨(dú)立完成研發(fā),團(tuán)隊(duì)通過遠(yuǎn)程進(jìn)行交流,其實(shí)做得很辛苦。”

談及 MCUNet 的研發(fā)過程,韓松表示他印象最深刻的是疫情期間團(tuán)隊(duì)成員在無法面對面交流的情況下進(jìn)行研發(fā),挑戰(zhàn)很大。

前文提到,提出 MCUNet 方案的論文已入選今年的 NeurIPS spotlight。其實(shí),除此之外,韓松團(tuán)隊(duì)今年入選 NeurIPS 的還有另外兩篇,分別為《TinyTL:降低內(nèi)存占用而非參數(shù)量用于高效的設(shè)備上學(xué)習(xí)》和《可微分?jǐn)?shù)據(jù)增強(qiáng):訓(xùn)練數(shù)據(jù)高效的生成對抗網(wǎng)絡(luò)》。在此不對另外兩篇論文進(jìn)行展開,簡單了解下該團(tuán)隊(duì)中 MCUNet 研發(fā)的主要成員。

帶隊(duì)老師韓松,為麻省理工電子工程和計(jì)算機(jī)科學(xué)系助理教授,在斯坦福大學(xué)獲得博士學(xué)位,研究重點(diǎn)為高效的深度學(xué)習(xí)計(jì)算。他曾提出的深度壓縮技術(shù)可以在不損失神經(jīng)網(wǎng)絡(luò)精度的前提下大幅縮小網(wǎng)絡(luò)的模型參數(shù),并且在硬件實(shí)現(xiàn)的高效推理引擎中首次探索了模型剪枝和參數(shù)稀疏化在深度學(xué)習(xí)加速器中的應(yīng)用。曾獲 ICLR' 16 和 FPGA' 17 最佳論文獎(jiǎng)等獎(jiǎng)項(xiàng),也因其在 “深度壓縮” 技術(shù)上的貢獻(xiàn),于 2019 年被《麻省理工科技評論》評為全球 “35 歲以下的 35 名杰出創(chuàng)新者”。

MCUNet 論文第一作者林己,現(xiàn)為 MIT HAN Lab 在讀博士生,研究方向是高效率的深度學(xué)習(xí)算法和系統(tǒng),除 MCUNet,他還曾開發(fā)全自動的深度模型壓縮和加速方法(AMC)。

參與 MCUNet 研究的還有陳威銘,為臺灣大學(xué)博士、MIT HAN Lab 準(zhǔn)博后,研究方向主要包括微型化機(jī)器學(xué)習(xí),MCUNet 方案中,陳威銘設(shè)計(jì)了適合微型控制器(Microcontroller)上運(yùn)行的深度學(xué)習(xí)模型引擎(TinyEngine)。

原文標(biāo)題:MIT韓松團(tuán)隊(duì)開發(fā)全新微型深度學(xué)習(xí)技術(shù)MCUNet,實(shí)現(xiàn)ImageNet超70%準(zhǔn)確率,可在物聯(lián)網(wǎng)設(shè)備高效運(yùn)行

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    146

    文章

    17964

    瀏覽量

    366410
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7658

    瀏覽量

    90732
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134563

原文標(biāo)題:MIT韓松團(tuán)隊(duì)開發(fā)全新微型深度學(xué)習(xí)技術(shù)MCUNet,實(shí)現(xiàn)ImageNet超70%準(zhǔn)確率,可在物聯(lián)網(wǎng)設(shè)備高效運(yùn)行

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    華為全新升級AI輔助開發(fā)能力

    人工智能正深度融入各行各業(yè),軟件開發(fā)也正站在工作范式變革的前沿陣地。AI各項(xiàng)技術(shù)的突破性進(jìn)展,正以前所未有的深度和廣度重塑軟件開發(fā)的每一個(gè)環(huán)
    的頭像 發(fā)表于 07-09 16:46 ?361次閱讀
    華為<b class='flag-5'>全新</b>升級AI輔助<b class='flag-5'>開發(fā)</b>能力

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1897次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?649次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1338次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1054次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    :DE5Net_Conv_Accelerator 應(yīng)用場景 :面向深度學(xué)習(xí)的開源項(xiàng)目,實(shí)現(xiàn)了AlexNet的第一層卷積運(yùn)算加速。 技術(shù)特點(diǎn) : 采用了Verilog語言進(jìn)行編程,與PCIe接口相集成,可以直接插入到
    的頭像 發(fā)表于 10-25 09:22 ?1209次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    英特爾推出全新實(shí)感深度相機(jī)模組D421

    英特爾 實(shí)感 技術(shù)再次突破界限,推出全新的英特爾 實(shí)感 深度相機(jī)模組D421。這是一款入門級立體深度模組,旨在以高性價(jià)比將先進(jìn)的深度感應(yīng)
    的頭像 發(fā)表于 10-11 15:26 ?798次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,F(xiàn)PGA 也需要不斷適應(yīng)和改進(jìn)。研究人員和開發(fā)者將致力于針對 FPGA 的特點(diǎn)對深度學(xué)習(xí)算法進(jìn)行優(yōu)化,例如探索更高效的模型壓縮方法、量化技術(shù)以及硬件友好的算法結(jié)構(gòu)等,以進(jìn)一步提高 F
    發(fā)表于 09-27 20:53

    北京迅為RK3568開發(fā)板嵌入式學(xué)習(xí)之Linux驅(qū)動全新更新-CAN+

    北京迅為RK3568開發(fā)板嵌入式學(xué)習(xí)之Linux驅(qū)動全新更新-CAN+
    的頭像 發(fā)表于 09-04 15:29 ?1038次閱讀
    北京迅為RK3568<b class='flag-5'>開發(fā)</b>板嵌入式<b class='flag-5'>學(xué)習(xí)</b>之Linux驅(qū)動<b class='flag-5'>全新</b>更新-CAN+

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1130次閱讀

    著名科幻作家韓松調(diào)研中國第三代自主超導(dǎo)量子計(jì)算機(jī)

    韓松遞交了親筆信。本源量子輪值董事長、“本源悟空”硬件研制團(tuán)隊(duì)負(fù)責(zé)人孔偉成博士,本源量子副總裁、“本源悟空”云服務(wù)研制團(tuán)隊(duì)負(fù)責(zé)人趙雪嬌,本源量子副總裁、“本源悟空”
    的頭像 發(fā)表于 07-27 08:22 ?651次閱讀
    著名科幻作家<b class='flag-5'>韓松</b>調(diào)研中國第三代自主超導(dǎo)量子計(jì)算機(jī)

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要
    的頭像 發(fā)表于 07-16 18:29 ?2498次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺上,仍然是一個(gè)具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?3170次閱讀
    主站蜘蛛池模板: 色多多网 | 国产成人a一区二区 | 手机在线观看你懂的 | 思思99re66在线精品免费观看 | 欧美熟色妇 | 九九久久久久午夜精选 | 亚洲性久久久影院 | 亚洲精品资源在线 | 国产精品久线观看视频 | www.黄色免费| 亚洲婷婷综合中文字幕第一页 | 日韩免费观看一级毛片看看 | 国产一级爱c片免费播放 | 欧美肉到失禁高h视频在线 欧美三级成人 | 国产片91人成在线观看 | 黄色成人免费网站 | 日本xxxxx黄区免费看动漫 | 日本黄色大片在线观看 | 黄色成人免费网站 | 日韩三级视频在线观看 | 另类激情网 | 欧美有码视频 | 97理论三级九七午夜在线观看 | 国产美女精品久久久久久久免费 | aa在线播放 | 免费的三及片 | 在线观看国产三级 | 国产女人和拘做受视频免费 | 欧美一区二区三区黄色 | 免费人成激情视频在线观看冫 | 久久综合久久精品 | 国产亚洲美女 | 艹久久 | 天天干天天操天天添 | 特级aaa片毛片免费观看 | 美女黄页网 | 国产va免费精品高清在线 | www.天天射 | 久草毛片 | 广东毛片| 午夜视频www |