在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

邊緣AI應用越來越普遍,AI模型在邊緣端如何部署?

Carol Li ? 來源:電子發(fā)燒友網 ? 作者:李彎彎 ? 2023-07-04 00:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網報道(文/李彎彎)在人工智能時代,越來越多的AI應用需要從云端擴展到邊緣端,比如智能耳機、智能攝像機、智能手環(huán)、物流機器人等,在邊緣端部署AI已經成為趨勢。如今AI大模型迅猛發(fā)展,AI大模型在端側的部署也成了業(yè)界關注的焦點。

如何把AI模型在邊緣端部署

首先得軟硬件適配,硬件方面,適配的AI芯片越多越好,這樣對于工程師來說,就降低了端側模型適配遷移的難度,即使換一個設備也可以輕松部署上去;軟件方面,主要的操作系統(tǒng)需要做適配,包括Linux、Windows、AndroidiOS等,這樣無論是手機、PC都可以部署。還有框架適配,也是越全越好,比如PaddlePaddle、TensorFlow、PyTorch、Caffe、MXNet等。

其次是需要對模型進行壓縮,在保證高精度的同時,最好也能夠讓模型跑得更快更省內存,這里需要采用模型壓縮技術,比如模型量化、剪枝和蒸餾技術。尤其是如今AI大模型迅猛發(fā)展,未來大模型在端側的部署也少不了要用到壓縮技術。

可以說,模型壓縮技術是實現AI大模型在邊/端部署的核心技術。模型壓縮技術可在保有大模型原有性能和精度基本不變前提下降低對推理算力的需求。

具體來看,量化,即將浮點計算轉成低比特定點計算;網絡剪枝,即去除神經網絡中冗余的通道、神經元節(jié)點等;知識蒸餾,即將大模型作為教師模型,用其輸出訓練性能接近、結構更簡的模型。

以清華大學唐杰教授團隊2022年8月發(fā)布的1300億參數模型 GLM-130B 為例,原模型支持在一臺 A100 40G*8或 V100 32G*8 服務器上進行推理,而將模型量化至 INT 4精度后,相較INT 8精度其所需 GPU 內存降低50%,且可在一臺4×RTX 3090(24G)或 8×RTX 2080Ti (11G )服務器上進行推理。

眾多廠商實現AI大模型的端側部署

谷歌、高通、華為等廠商已經實現AI大模型在端側的部署。今年5月份,在Google/O開發(fā)者大會上,Google宣布了一個專門針對移動設備優(yōu)化系統(tǒng)的TensorFlow新版本TensorFlowLite。這款被稱為TensorFlowLite的軟件庫,是可在移動設備上運行的深度學習工具,它允許開發(fā)人員在用戶的移動設備上實時地運行人工智能應用。

該軟件庫在設計上追求高速度和小儲存,支持iOS和Android系統(tǒng)。如果開發(fā)者使用其他系統(tǒng),也可以經過一系列復雜而冗長的編譯流程,將TensorFlow編譯成移動操作系統(tǒng)所支持的軟件庫,這樣并不會改變TensorFlow的功能。

TensorFlowLite還提供了有限的預訓練人工智能模型,包括MobileNet和InceptionV3物體識別計算機模型,以及SmartReplay自然語言處理模型。開發(fā)者用自己的數據集做的定制模型也可以部署在上面。TensorFlowLite使用Android神經網絡應用程序界面(API),可以在沒有加速硬件時直接調用CPU來處理,確保其可以兼容不同設備。

高通技術公司產品管理高級副總裁兼AI負責人Ziad Asghar此前表示,隨著生成式AI的飛速普及,混合處理的重要性空前突顯。混合處理AI的重要性空前突顯,正如傳統(tǒng)計算從大型主機和瘦客戶端演變?yōu)楫斍霸贫撕瓦吘壗K端相結合的模式,AI處理必須在云端和終端混合進行才能發(fā)揮其最大潛能。

根據高通的演示,將手機設置成“飛行模式”,再通過手機端全棧AI優(yōu)化,這一模型能夠完全在終端側運行,實現在15秒內完成20步推理,生成飽含細節(jié)的圖像。很重要的是,即便在飛行模式下,這些AI能力都可以得到實現,例如將Stable Diffusion的能力集成到相機應用中之后,用戶在任何一個地點拍攝照片,再要求AI將照片背景改為夕陽之下的萬里長城。

Ziad Asghar透露,如果在云端運行一個超過10億參數的生成式AI模型,可能需要數百瓦的功耗,而在終端側運行需要的功耗僅有幾毫瓦。這賦予了高通在生成式AI領域的獨特優(yōu)勢。不久的將來,擁有 100 億或更高參數的模型將能夠在終端上運行。

在今年3月春季旗艦新品發(fā)布會上,華為帶來全新智慧搜圖功能,基于多模態(tài)大模型技術,在手機端側對模型進行小型化處理,在業(yè)界率先實現了首創(chuàng)的、精準的自然語言手機圖庫搜索體驗。用戶可以像與人對話一樣,通過語音喚醒小藝,使用自然語言在手機圖庫中搜索出匹配如 “山頂看日出”、“圍爐煮茶”、“藍色珊瑚中的小丑魚”等描述的照片。

相較于傳統(tǒng)圖庫使用標簽進行照片搜索,存在準確率低、響應速度慢等問題,智慧搜圖更加“聰明”。結合多模態(tài)大模型技術,智慧搜圖對億級的圖文數據進行預訓練,增加了對泛化通用語義的理解,支持包含顏色、形狀、物體、行為、時間和地點等多信息組合的自然語言搜索,同時還實現了端側輕量化應用。

小結

由于AI在邊緣或者端側的部署具有諸多優(yōu)勢,近年來AI在邊緣側的應用滲透率也越來越高。AI大模型迅猛發(fā)展,未來在終端的部署也是必然趨勢,眾多廠商已經對此進行探索,并有所突破,期待AI大模型未來能夠是實實在在賦能各行各業(yè)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    34781

    瀏覽量

    277140
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    邊緣AI實現的核心環(huán)節(jié):硬件選擇和模型部署

    邊緣AI的實現原理是將人工智能算法和模型部署到靠近數據源的邊緣設備上,使這些設備能夠本地進行數
    的頭像 發(fā)表于 06-19 12:19 ?402次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>實現的核心環(huán)節(jié):硬件選擇和<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    STM32F769是否可以部署邊緣AI

    STM32F769是否可以部署邊緣AI
    發(fā)表于 06-17 06:44

    邊緣AI的優(yōu)勢和技術基石

    萬物皆可AI(人工智能)的今天,市場上幾乎每家企業(yè)都在宣稱自己的業(yè)務中有了AI成分。因此,將AI接入極靠近終端客戶的網絡邊緣也就沒什么懸念
    的頭像 發(fā)表于 06-12 10:14 ?418次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>的優(yōu)勢和技術基石

    邊緣AI實現的核心環(huán)節(jié):硬件選擇和模型部署

    電子發(fā)燒友網綜合報道 邊緣AI的實現原理是將人工智能算法和模型部署到靠近數據源的邊緣設備上,使這些設備能夠
    發(fā)表于 05-26 07:09 ?893次閱讀

    Deepseek海思SD3403邊緣計算AI產品系統(tǒng)

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓練產品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應用場景,自己采集樣本數據,進
    發(fā)表于 04-28 11:05

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓AI模型接入得心應手

    ,聯發(fā)科帶來了全面升級的天璣AI開發(fā)套件2.0,模型庫規(guī)模、架構開放程度、前沿AI技術支持和
    發(fā)表于 04-13 19:52

    AI模型部署正當時:移遠端側AI模型解決方案,激活場景智能新范式

    AI技術飛速發(fā)展的當下,AI模型的應用正從云端向側加速滲透。 作為全球領先的物聯網整體解決方案供應商,移遠通信憑借深厚的技術積累與前瞻
    發(fā)表于 03-27 11:26 ?220次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側<b class='flag-5'>部署</b>正當時:移遠端側<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    Arm 推出 Armv9 邊緣 AI 計算平臺,以超高能效與先進 AI 能力賦能物聯網革新

    電子發(fā)燒友網報道(文/黃晶晶)當下,快速發(fā)展的 AI 正不斷賦予邊緣設備越來越先進的智能性,使邊緣設備勝任越來越重要的任務。為應對
    的頭像 發(fā)表于 03-06 11:43 ?1260次閱讀
    Arm 推出 Armv9 <b class='flag-5'>邊緣</b> <b class='flag-5'>AI</b> 計算平臺,以超高能效與先進 <b class='flag-5'>AI</b> 能力賦能物聯網革新

    AI賦能邊緣網關:開啟智能時代的新藍海

    的引入徹底改變了這一局面。通過邊緣網關集成AI芯片和算法模型,使其具備了實時數據分析、智能決策和自主控制能力。工業(yè)質檢場景中,搭載
    發(fā)表于 02-15 11:41

    研華邊緣AI Box MIC-ATL3S部署Deepseek R1模型

    隨著深度求索(DeepSeek)大模型的發(fā)布引發(fā)行業(yè)熱議,研華科技基于昇騰Atlas平臺邊緣AI Box MIC-ATL3S正式發(fā)布與Deepseek R1模型
    的頭像 發(fā)表于 02-14 16:08 ?1263次閱讀
    研華<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b> Box MIC-ATL3S<b class='flag-5'>部署</b>Deepseek R1<b class='flag-5'>模型</b>

    企業(yè)AI模型部署攻略

    當下,越來越多的企業(yè)開始探索和實施AI模型,以提升業(yè)務效率和競爭力。然而,AI模型部署并非易事
    的頭像 發(fā)表于 12-23 10:31 ?753次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數據源的邊緣設備上運行。這不僅減少了數據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何在邊緣部署OpenCV

    的算法和模型來解析圖像的意義。 實際應用中,這兩者往往是緊密結合的,共同作用于解決復雜的問題。例如,一個自動駕駛系統(tǒng)中,圖像處理可能會用于清理傳感器輸入的數據,而計算機視覺則負責識別道路上的行人
    發(fā)表于 12-14 09:31

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    系統(tǒng)的智能化水平,還極大地拓展了其應用范圍, 使得嵌入式系統(tǒng)智能家居、智能交通、智能醫(yī)療等領域有了更深層次的運用。AI技術的嵌入,已經成為未來嵌入式系統(tǒng)發(fā)展 的一個重要趨勢。踏入邊緣
    發(fā)表于 12-06 17:20

    研華科技打造整體邊緣AI服務器解決方案

    近年來,AIoT數據量快速成長、硬件效能提升、綠色低碳意識抬頭等趨勢影響下,邊緣AI應用的系統(tǒng)架構也出現改變。隨著越來越多企業(yè)將AI
    的頭像 發(fā)表于 11-18 15:35 ?646次閱讀
    主站蜘蛛池模板: 中文字幕va一区二区三区 | 四虎影院在线看 | 艹逼视频免费看 | 日韩免费高清一级毛片 | 国产情侣露脸 | 国产色视频在线 | 午夜日韩在线 | 综合视频网 | 欧美一区二区三区不卡片 | 国产美女久久 | 午夜爱爱免费视频 | 婷婷五月小说 | 日本黄色免费电影 | 日本三级视频在线 | 69日本xxxxxxxxx30 69日本xxxxxxxxx56 | xxx性xxx| 成人伊人| 亚洲综合在线观看一区www | 国产免费好大好硬视频 | 丁香婷婷综合五月综合色啪 | 国产一区二区三区在线观看视频 | 加勒比一木道|视频在线看 加勒比在线免费视频 | 久久香蕉综合色一综合色88 | 久久久免费观看 | 在线毛片免费 | 国产真实乱偷人视频 | 又大又粗进出白浆直流动态图 | 欧美大胆一级视频 | 亚洲第一在线播放 | 四虎国产精品永免费 | 中文字幕第8页 | 精品人人 | 国产毛片毛片精品天天看 | 免费可以看黄的视频 s色 | 欧美午夜场 | 成人欧美一区二区三区黑人3p | 成视频年人黄网站免费视频 | 欧美成人a视频 | 亚洲最大成人 | 国产一级一片免费播放视频 | 久久艹免费视频 |