在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

基于Arm Ethos-U85 NPU部署小語言模型

Arm社區(qū) ? 來源:Arm社區(qū) ? 2025-01-20 09:53 ? 次閱讀

隨著人工智能 (AI) 的演進,人們對使用小語言模型 (SLM) 在嵌入式設備上執(zhí)行 AI 工作負載的興趣愈發(fā)高漲。

以下的演示展現(xiàn)了端點 AI 在物聯(lián)網(wǎng)和邊緣計算領域的發(fā)展?jié)摿ΑT诖搜菔局?,當用戶輸入一個句子后,系統(tǒng)將基于該句擴展生成一個兒童故事。這項演示受到了微軟“Tiny Stories”論文和 Andrej Karpathy 的 TinyLlama2 項目的啟發(fā),TinyLlama2 項目使用了 2,100 萬個故事來訓練小語言模型生成文本。

該演示搭載了 Arm Ethos-U85 NPU,并在嵌入式硬件上運行小語言模型。盡管大語言模型 (LLM) 更加廣為人知,但由于小語言模型能夠以更少的資源和較低的成本提供出色的性能,而且訓練起來也更為簡易且成本更低,因此越來越受到關注。

在嵌入式硬件上實現(xiàn)

基于 Transformer 的小語言模型

我們的演示展示了 Ethos-U85 作為一個小型低功耗平臺,具備運行生成式 AI 的能力,并凸顯了小語言模型在特定領域中的出色表現(xiàn)。TinyLlama2 模型相較 Meta 等公司的大模型更為簡化,很適合用于展示 Ethos-U85 的 AI 性能,可作為端點 AI 工作負載的理想之選。

為開發(fā)此演示,我們進行了大量建模工作,包括創(chuàng)建一個全整數(shù)的 INT8(和 INT8x16)TinyLlama2 模型,并將其轉(zhuǎn)換為適合 Ethos-U85 限制的固定形狀 TensorFlow Lite 格式。

我們的量化方法表明,全整數(shù)語言模型在取得高準確度和輸出質(zhì)量之間實現(xiàn)了良好平衡。通過量化激活、歸一化函數(shù)和矩陣乘法,我們無需進行浮點運算。由于浮點運算在芯片面積和能耗方面成本較高,這對于資源受限的嵌入式設備來說是一個關鍵考量。

Ethos-U85 在 FPGA 平臺上以 32 MHz 的頻率運行語言模型,其文本生成速度可達到每秒 7.5 到 8 個詞元 (token),與人類的閱讀速度相當,同時僅消耗四分之一的計算資源。在實際應用的系統(tǒng)級芯片 (SoC) 上,該性能最多可提高十倍,從而顯著提升了邊緣側(cè) AI 的處理速度和能效。

兒童故事生成特性采用了 Llama2 的開源版本,并結合了 Ethos NPU 后端,在 TFLite Micro 上運行演示。大部分推理邏輯以 C++ 語言在應用層編寫,并通過優(yōu)化上下文窗口內(nèi)容,提高了故事的連貫性,確保 AI 能夠流暢地講述故事。

由于硬件限制,團隊需要對 Llama2 模型進行適配,以確保其在 Ethos-U85 NPU 上高效運行,這要求對性能和準確性進行仔細考量。INT8 和 INT16 混合量化技術展示了全整數(shù)模型的潛力,這有利于 AI 社區(qū)更積極地針對邊緣側(cè)設備優(yōu)化生成式模型,并推動神經(jīng)網(wǎng)絡在如 Ethos-U85 等高能效平臺上的廣泛應用。

Arm Ethos-U85 彰顯卓越性能

Ethos-U85 的乘法累加 (MAC) 單元可以從 128 個擴展至 2,048 個,與前一代產(chǎn)品 Ethos-U65 相比,其能效提高了 20%。另外相較上一代產(chǎn)品,Ethos-U85 的一個顯著特點是能夠原生支持 Transformer 網(wǎng)絡。

Ethos-U85 支持使用前代 Ethos-U NPU 的合作伙伴能夠?qū)崿F(xiàn)無縫遷移,并充分利用其在基于 Arm 架構的機器學習 (ML) 工具上的既有投資。憑借其卓越能效和出色性能,Ethos-U85 正愈發(fā)受到開發(fā)者青睞。

如果在芯片上采用 2,048 個 MAC 配置,Ethos-U85 可以實現(xiàn) 4 TOPS 的性能。在演示中,我們使用了較小的配置,即在 FPGA 平臺上采用 512 個 MAC,并以 32 MHz 的頻率運行具有 1,500 萬個參數(shù)的 TinyLlama2 小語言模型。

這一能力凸顯了將 AI 直接嵌入設備的可能性。盡管內(nèi)存有限(320 KB SRAM 用于緩存,32 MB 用于存儲),Ethos-U85 仍能高效處理此類工作負載,為小語言模型和其他 AI 應用在深度嵌入式系統(tǒng)中的廣泛應用奠定了基礎。

將生成式 AI 引入嵌入式設備

開發(fā)者需要更加先進的工具來應對邊緣側(cè) AI 的復雜性。Arm 通過推出 Ethos-U85,并支持基于 Transformer 的模型,致力于滿足這一需求。隨著邊緣側(cè) AI 在嵌入式應用中的重要性日益增加,Ethos-U85 正在推動從語言模型到高級視覺任務等各種新用例的實現(xiàn)。

Ethos-U85 NPU 提供了創(chuàng)新前沿解決方案所需的卓越性能和出色能效。我們的演示顯示了將生成式 AI 引入嵌入式設備的重要進展,并凸顯了在 Arm 平臺上部署小語言模型便捷可行。

Arm 正為邊緣側(cè) AI 在廣泛應用領域帶來新機遇,Ethos-U85 也因此成為推動新一代智能、低功耗設備發(fā)展的關鍵動力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ARM
    ARM
    +關注

    關注

    134

    文章

    9282

    瀏覽量

    374049
  • 嵌入式
    +關注

    關注

    5128

    文章

    19463

    瀏覽量

    313658
  • 物聯(lián)網(wǎng)

    關注

    2924

    文章

    45715

    瀏覽量

    386135
  • AI
    AI
    +關注

    關注

    87

    文章

    33747

    瀏覽量

    274524

原文標題:Arm Ethos-U85 NPU:利用小語言模型在邊緣側(cè)實現(xiàn)生成式 AI

文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,后摩智能自研NPU迅速實現(xiàn)Qwen3 系列模型(Qwen3 0.6B-14B)在端邊側(cè)的高效部署。這一成果充分彰顯了
    的頭像 發(fā)表于 05-07 16:46 ?224次閱讀

    Arm 推出 Armv9 邊緣 AI 計算平臺,以超高能效與先進 AI 能力賦能物聯(lián)網(wǎng)革新

    架構的超高能效 CPU——Arm Cortex-A320 以及對 Transformer 網(wǎng)絡具有原生支持的 Ethos-U85 AI 加速器為核心的邊緣AI 計算平臺,可支持運行超 10 億參數(shù)
    的頭像 發(fā)表于 03-06 11:43 ?1156次閱讀
    <b class='flag-5'>Arm</b> 推出 Armv9 邊緣 AI 計算平臺,以超高能效與先進 AI 能力賦能物聯(lián)網(wǎng)革新

    Arm推出全球首個Armv9邊緣AI計算平臺

    全球首個 Armv9 邊緣 AI 計算平臺以 Cortex-A320 CPU 和 Ethos-U85 NPU 為核心,專為物聯(lián)網(wǎng)應用優(yōu)化,支持運行超 10 億參數(shù)的端側(cè) AI 模型,已獲得包括亞馬遜云科技 (AWS)、西門子和瑞
    的頭像 發(fā)表于 02-27 17:08 ?532次閱讀

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    的核心功能之一,它允許用戶將Hugging Face或GGUF格式的大語言模型轉(zhuǎn)換為RKLLM模型,從而將RKLLM模型在Rockchip NPU
    發(fā)表于 02-27 16:45

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    飆升至百分之百,滿負荷運轉(zhuǎn),而開發(fā)板強大的 NPU 卻閑置一旁,無法發(fā)揮加速運算優(yōu)勢,這在一定程度上限制了模型的運行效率與性能表現(xiàn)。 02-用RKLLM量化部署-挖掘NPU潛力
    發(fā)表于 02-14 17:42

    如何在Arm Ethos-U85上使用ExecuTorch

    在快速發(fā)展的機器學習領域,PyTorch 憑借其靈活性和全面的生態(tài)系統(tǒng),已成為模型開發(fā)的熱門框架。Arm 與 Meta 合作在 ExecuTorch 中引入了對 Arm 平臺的支持,進一步簡化了
    的頭像 發(fā)表于 02-14 14:23 ?481次閱讀
    如何在<b class='flag-5'>Arm</b> <b class='flag-5'>Ethos-U85</b>上使用ExecuTorch

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?406次閱讀

    云端語言模型開發(fā)方法

    云端語言模型的開發(fā)是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)準備、模型選擇、訓練優(yōu)化、部署應用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言
    的頭像 發(fā)表于 12-02 10:48 ?378次閱讀

    NPU支持的編程語言有哪些

    NPU(Neural Processing Unit)是一種專門為深度學習和人工智能應用設計的處理器。NPU支持的編程語言通常與它所集成的平臺或框架緊密相關。以下是一些常見的編程語言
    的頭像 發(fā)表于 11-15 09:21 ?1642次閱讀

    語言模型如何開發(fā)

    語言模型的開發(fā)是一個復雜且細致的過程,涵蓋了數(shù)據(jù)準備、模型架構設計、訓練、微調(diào)和部署等多個階段。以下是對大語言
    的頭像 發(fā)表于 11-04 10:14 ?468次閱讀

    什么是NPU?什么場景需要配置NPU?

    在人工智能(AI)技術如火如荼的今天,NPU神經(jīng)處理單元(Neural Processing Unit)作為一種新興的硬件加速器,正在成為ARM主板配置中的新寵。與傳統(tǒng)的CPU和GPU相比,NPU
    的頭像 發(fā)表于 10-11 10:13 ?5109次閱讀
    什么是<b class='flag-5'>NPU</b>?什么場景需要配置<b class='flag-5'>NPU</b>?

    如何利用ARMxy ARM嵌入式計算機的NPU進行深度學習模型的訓練和優(yōu)化?

    在正文開始前,我們先大致了解鋇錸的ARMxy ARM嵌入式計算機,再來說說我們?nèi)绾卫肁RMxy ARM嵌入式計算機的NPU來實現(xiàn)深度學習模型的訓練和優(yōu)化。 ARMxy系列的
    的頭像 發(fā)表于 08-20 13:43 ?616次閱讀
    如何利用ARMxy <b class='flag-5'>ARM</b>嵌入式計算機的<b class='flag-5'>NPU</b>進行深度學習<b class='flag-5'>模型</b>的訓練和優(yōu)化?

    llm模型本地部署有用嗎

    ,將這些模型部署到本地環(huán)境可能會帶來一些挑戰(zhàn)和優(yōu)勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學習的神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-09 10:14 ?1070次閱讀

    基于AX650N/AX630C部署端側(cè)大語言模型Qwen2

    本文將分享如何將最新的端側(cè)大語言模型部署到超高性價比SoC上,向業(yè)界對端側(cè)大模型部署的開發(fā)者提供一種新的思路。
    的頭像 發(fā)表于 07-06 17:43 ?4322次閱讀
    基于AX650N/AX630C<b class='flag-5'>部署</b>端側(cè)大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>Qwen2

    芯品# 物聯(lián)網(wǎng)市場性能最高的 NPU

    提高數(shù)據(jù)隱私和安全性。 ArmEthos NPU 如何增強邊緣和端點的 AI 性能? 多年來,Arm 一直在開發(fā)邊緣 AI 加速器,以支持對邊緣和端點推理工作負載日益增長的需求。
    的頭像 發(fā)表于 06-26 17:28 ?8202次閱讀
    芯品# 物聯(lián)網(wǎng)市場性能最高的 <b class='flag-5'>NPU</b>
    主站蜘蛛池模板: 久久久久99精品成人片三人毛片 | 亚洲不卡网 | 成人性色生活片免费看爆迷你毛片 | 天天操天天干天搞天天射 | 伊人久久大香线蕉综合高清 | 四虎永久免费网站免费观看 | ww久久| 狼狼鲁狼狼色 | 五月天婷婷丁香中文在线观看 | 国内外精品免费视频 | 国产 日韩 欧美 高清 | 在线免费观看91 | 午夜激情婷婷 | 午夜宅男视频 | 日韩三级免费看 | 久久久久国产一级毛片高清板 | 日本不卡视频在线 | 美女拍拍拍免费视频观看 | 不卡视频一区二区三区 | 黄色大秀 | 一女被多男玩很肉很黄文 | 手机看片福利视频 | 诱人的老师bd高清日本在线观看 | 91大神免费视频 | 国产精品久久福利网站 | 天天干天天操天天 | 国模在线视频 | 天天天干 | 天堂在线网 | 在线观看网址你懂得 | 经典三级第一页 | 日本在线一级 | 日产精品卡二卡三卡四卡无卡乱码 | 色老头综合| 天天射天天爽 | 兔费看全黄三级 | 黄色的视频网站在线观看 | 在线观看免费视频网站色 | 国产一级做a爰片久久毛片男 | 中文字幕自拍 | 天天天天色 |