在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

安霸發(fā)布N1系列生成式AI芯片支持前端設(shè)備運(yùn)行本地LLM應(yīng)用

Ambarella安霸半導(dǎo)體 ? 來源:Ambarella安霸半導(dǎo)體 ? 2024-01-09 15:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

單顆 SoC 支持 1 至 340 億參數(shù)的多模態(tài)大模型(Multi-Modal LLM)推理,實(shí)現(xiàn)前端低功耗生成式 AI

美國加利福尼亞州圣克拉拉市,2024年1月8日-

Ambarella (下稱“安霸”,專注 AI 視覺感知的半導(dǎo)體公司,納斯達(dá)克股票代碼:AMBA)于當(dāng)天宣布,在 2024 國際消費(fèi)電子展(CES)期間,展出在其新款 N1 系列 SoC 上運(yùn)行多模態(tài)大模型(Multi-Modal LLM),其每次推理的功耗顯著低于當(dāng)前市場的通用 GPU 解決方案。

生成式 AI 是為了處理大規(guī)模數(shù)據(jù)集而最早應(yīng)用于服務(wù)器上的變革性技術(shù),而安霸的目標(biāo)是將生成式 AI 部署于終端設(shè)備和本地硬件上,從而將其廣泛應(yīng)用于視頻安防分析、機(jī)器人以及眾多工業(yè)領(lǐng)域。

安霸將在中高端 SoC 上提供已優(yōu)化的生成式 AI 處理。這些 AI SoC 包含了功耗低于 5 瓦的 CV72 芯片,以及最新的可應(yīng)用于服務(wù)器端,功耗低于 50 瓦的 N1 芯片。與 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 解決方案,每生成一個 token 的能效比最高可提高 3 倍,并可快捷、低成本地部署在終端產(chǎn)品中。

生成式 AI 在我們的目標(biāo)市場上實(shí)現(xiàn)了突破,之前無法想象的功能得以實(shí)現(xiàn)。使用我們的 N1 系列 SoC 來進(jìn)行多模態(tài)大模型推理,將使所有的前端設(shè)備變得更智能,更低功耗,和更低成本。

市場研究公司 Omdia 高級計(jì)算首席分析師 Alexander Harrowell 表示:“在未來 18 個月內(nèi),幾乎所有設(shè)備前端應(yīng)用都將被生成式 AI 增強(qiáng)。把生成式 AI 的計(jì)算轉(zhuǎn)移到設(shè)備前端的要點(diǎn),就在于每瓦的 AI 性能,以及它與前端生態(tài)系統(tǒng)其余部分的集成,而不僅僅是原始數(shù)據(jù)的吞吐量。”

所有安霸的 AI SoC 均可搭配全新的 Cooper 開發(fā)平臺。此外,為了縮短客戶新產(chǎn)品上市的時間,安霸已預(yù)先移植和優(yōu)化了 LIama-2 等流行的大語言模型。其在 N1 芯片上運(yùn)行的大語言和視覺助手 LLava 模型,可對多達(dá) 32 個攝像頭同時進(jìn)行多模態(tài)視覺分析。這些經(jīng)過預(yù)訓(xùn)練和調(diào)優(yōu)的模型可從 Cooper Model Garden 下載。

在現(xiàn)實(shí)世界的眾多應(yīng)用里,除了語言,視覺輸入也是一種關(guān)鍵模式。安霸 SoC 的特有架構(gòu)非常適合以超低功耗同時運(yùn)行視頻處理和 AI 計(jì)算。安霸的 AI SoC 并不是單一的 AI 加速器,它不僅能夠高效處理多模態(tài)大模型,還能同時執(zhí)行各種系統(tǒng)功能。

生成式 AI 將成為計(jì)算機(jī)視覺處理中跨越式的新技術(shù),它可將上下文學(xué)習(xí)和場景理解應(yīng)用于各種設(shè)備,從而涵蓋安防設(shè)施、自主機(jī)器人以及眾多工業(yè)應(yīng)用。基于安霸 AI 芯片的設(shè)備端通過運(yùn)行大語言模型和多模態(tài)處理可實(shí)現(xiàn)以下功能:安防視頻的上下文智能搜索、通過自然語言命令控制的機(jī)器人、以及多才多藝的AI助手,比如代碼、文本和圖像的生成等。

這些依賴攝像頭和自然語言理解的系統(tǒng),大部分將受益于設(shè)備前端的生成式 AI 處理,其處理速度得以提高,隱私保護(hù)得到加強(qiáng),并且總成本也會降低。安霸解決方案支持的本地處理也非常適合垂直領(lǐng)域大語言模型,這些大語言模型通常需要針對每個具體應(yīng)用場景進(jìn)行調(diào)整;而傳統(tǒng)的集中式服務(wù)器方案則是使用更大、功耗更高的大語言模型來滿足不同用例的要求。

基于安霸最初為自動駕駛開發(fā)的 CV3-HD 架構(gòu),N1 系列 SoC 對總算力資源進(jìn)行了針對性的優(yōu)化,從而以超極低功耗運(yùn)行多模態(tài)大模型。例如,N1 SoC 在單流模式下以低于 50 瓦的功耗運(yùn)行 Llama2-13B,每秒可推理 25 個 token。N1 解決方案自帶移植好的大模型,使系統(tǒng)整合更容易,因此它可快速幫助 OEM 廠商部署生成式 AI,特別是要求低功耗的各種應(yīng)用,比如自帶本地應(yīng)用的 AI 智能盒子、送貨機(jī)器人等,不一而足。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    826

    瀏覽量

    39038
  • soc
    soc
    +關(guān)注

    關(guān)注

    38

    文章

    4372

    瀏覽量

    222282
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1708

    瀏覽量

    46686
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1979

    瀏覽量

    35808
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    323

    瀏覽量

    786

原文標(biāo)題:安霸發(fā)布 N1 系列生成式 AI 芯片,支持前端設(shè)備運(yùn)行本地 LLM 應(yīng)用

文章出處:【微信號:AMBARELLA_AMBA,微信公眾號:Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    在ISC West上推出下一代前端多模態(tài)AI技術(shù)

    近日,Ambarella (下稱“”,納斯達(dá)克股票代碼:AMBA, AI 視覺感知芯片公司)在美國拉斯維加斯西部防展(ISC West
    的頭像 發(fā)表于 04-03 09:57 ?359次閱讀

    Banana Pi 發(fā)布 BPI-AI2N & BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入開發(fā)

    RZ/V2N——近期在嵌入世界2025上新發(fā)布,為 AI 計(jì)算、嵌入系統(tǒng)及工自動化提供強(qiáng)大支持
    發(fā)表于 03-19 17:54

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    繼續(xù)學(xué)習(xí)迪哥的AI Agent入門引導(dǎo)書籍。 LLM在落地應(yīng)用中面臨著專業(yè)領(lǐng)域表現(xiàn)不足、知識更新困難、容易產(chǎn)生\"幻覺\"等問題,這些挑戰(zhàn)嚴(yán)重制約了AI技術(shù)在各行業(yè)的深入
    發(fā)表于 03-07 19:49

    大算力AI芯片接入DeepSeek R1

    (Ambarela)在人工智能領(lǐng)域持續(xù)發(fā)力,已成功在多款 AI 芯片,包括 N 系列大算力
    的頭像 發(fā)表于 02-17 13:36 ?510次閱讀

    正點(diǎn)原子ESP32S3系列開發(fā)板全面支持小智AI

    飛速發(fā)展的大語言模型應(yīng)用到實(shí)際的硬件設(shè)備中。 小智AI功能如下: WiFi / ML307 Cat.1 4G BOOT鍵喚醒和打斷,支持點(diǎn)擊和長按兩種觸發(fā)方式 離線語音喚醒ESP-SR
    發(fā)表于 02-14 17:01

    Gauzy和的戰(zhàn)略合作取得突破性進(jìn)展

    Gauzy 的 AI Smart-Vision CMS 采用先進(jìn)的 CVflow AI SoC 支持 ADAS 功能,提升道路安全,重塑
    的頭像 發(fā)表于 02-07 11:20 ?633次閱讀

    發(fā)布N1-655前端生成AI芯片

    Ambarella(下稱“”,納斯達(dá)克股票代碼:AMBA,AI 視覺感知芯片公司)在 CES 上發(fā)布
    的頭像 發(fā)表于 01-09 10:29 ?790次閱讀

    基于Arm Neoverse平臺的處理器革新生成AI體驗(yàn)

    Llama 是一個專為開發(fā)者、研究人員和企業(yè)打造的開源大語言模型 (LLM) 庫,旨在推動生成 AI 的創(chuàng)新、實(shí)驗(yàn)及可靠地?cái)U(kuò)展。
    的頭像 發(fā)表于 01-03 15:31 ?655次閱讀
    基于Arm Neoverse平臺的處理器革新<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>體驗(yàn)

    定制本地的ChatFile的AI問答系統(tǒng)

    會遇到這樣的困擾?今天,我們將利用下面兩個技術(shù)為自己定制一個本地的 ChatFile 的 AI 問答系統(tǒng): 1. Google 最新開源的生成
    的頭像 發(fā)表于 01-03 09:26 ?638次閱讀
    定制<b class='flag-5'>本地</b>的ChatFile的<b class='flag-5'>AI</b>問答系統(tǒng)

    LG與攜手推動 AI 艙內(nèi)安全解決方案的發(fā)展

    移動技術(shù)領(lǐng)域的領(lǐng)導(dǎo)者 LG Electronics(下稱“LG”)和 Ambarella(下稱“”,納斯達(dá)克股票代碼:AMBA,AI 視覺感知芯片公司)今天宣布,LG 將在 202
    的頭像 發(fā)表于 12-05 09:27 ?1092次閱讀
    LG與<b class='flag-5'>安</b><b class='flag-5'>霸</b>攜手推動 <b class='flag-5'>AI</b> 艙內(nèi)安全解決方案的發(fā)展

    恩智浦如何在邊緣設(shè)備上部署LLM

    近來,與AI相關(guān)的周期性熱點(diǎn)幾乎都圍繞著大語言模型 (LLM) 和生成AI模型,這樣的趨勢反映出這些話題近年來日益增強(qiáng)的影響力和普及程度。
    的頭像 發(fā)表于 11-29 09:39 ?902次閱讀

    設(shè)備上利用AI Edge Torch生成API部署自定義大語言模型

    MediaPipe LLM Inference API 讓開發(fā)者們能夠?qū)⒁恍┳钍軞g迎的 LLM 部署到設(shè)備上。現(xiàn)在,我們很高興能進(jìn)一步拓展對模型的支持范圍,并讓大家部署到
    的頭像 發(fā)表于 11-14 10:23 ?1051次閱讀
    在<b class='flag-5'>設(shè)備</b>上利用<b class='flag-5'>AI</b> Edge Torch<b class='flag-5'>生成</b><b class='flag-5'>式</b>API部署自定義大語言模型

    三行代碼完成生成AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分為兩個安裝包分別是基礎(chǔ)包與生成AI支持包,新發(fā)布的Ge
    的頭像 發(fā)表于 08-30 16:49 ?735次閱讀
    三行代碼完成<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>部署

    謀科技異構(gòu)算力組合,破局生成AI算力挑戰(zhàn)

    ,“此芯P1”不僅異構(gòu)集成了Armv9 CPU核心與Arm Immortalis GPU,還搭載了謀科技(中國)有限公司(以下簡稱“謀科技”)“周易”NPU等自研業(yè)務(wù)產(chǎn)品。憑借高能效的異構(gòu)算力資源、系統(tǒng)級的安全保障以及強(qiáng)大的
    的頭像 發(fā)表于 08-13 09:12 ?882次閱讀

    llm模型本地部署有用嗎

    ,將這些模型部署到本地環(huán)境可能會帶來一些挑戰(zhàn)和優(yōu)勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型,它們能夠處理和理解大量的自然語言數(shù)據(jù)。這些模型通常
    的頭像 發(fā)表于 07-09 10:14 ?1189次閱讀
    主站蜘蛛池模板: 日本人xxxxxxxx6969 | 俺也来俺也去俺也射 | 老司机51精品视频在线观看 | 日韩成人免费一级毛片 | 日本wwwhdsex69| 日韩爽片| 成人在线网站 | 大胆国模一区二区三区伊人 | 97国产精品人人爽人人做 | 伊人久久大香线蕉综合影 | 岛国午夜精品视频在线观看 | 色狠狠综合网 | 人人福利| 种子在线搜索bt | 手机看片福利盒子久久青 | 阿v视频在线观看免费播放 爱爱视频天天干 | 99久久婷婷国产综合精品电影 | 99热最新在线 | 亚洲精品二区中文字幕 | 48pao强力打造免费基地 | 亚洲第一成人影院 | 一区二区三区在线观看视频 | 插插插操操操 | 久久久免费| 日本free护士姓交 | 狠狠干精品 | www.色视频| 亚洲狼色专区 | 在线午夜 | 一级特黄a 大片免费 | 婷婷久操| 成人欧美一区二区三区黑人3p | 羞羞影院男女午夜爽爽影视 | 清冷双性被cao的合不拢腿 | 色多多在线观看视频 | 黄色小视频免费看 | 天天干天天曰天天操 | 国产真实乱在线更新 | 久久久久国产精品 | 簧片地址| 午夜影网|