在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

后摩智能5篇論文入選國際頂會

后摩智能 ? 來源:后摩智能 ? 2025-02-19 14:02 ? 次閱讀

2025年伊始,后摩智能在三大國際頂會(AAAIICLR、DAC)中斬獲佳績,共有5篇論文被收錄,覆蓋大語言模型(LLM)推理優化、模型量化、硬件加速等前沿方向。

AAAI作為人工智能領域的綜合性頂級會議,聚焦AI基礎理論與應用創新;ICLR作為深度學習領域的權威會議,專注于表示學習、神經網絡架構和優化方法等基礎技術;DAC則是電子設計自動化(EDA)領域最重要的國際學術會議之一,涵蓋半導體設計、計算機體系結構、硬件加速、芯片設計自動化、低功耗計算、可重構計算以及AI在芯片設計中的應用等方向。以下為后摩智能本年度入選論文概述:

01【AAAI-2025】Pushing the Limits of BFP on Narrow Precision LLM Inference

?論文鏈接:https://arxiv.org/abs/2502.00026

大語言模型(LLMs)在計算和內存方面的巨大需求阻礙了它們的部署。塊浮點(BFP)已被證明在加速線性運算(LLM 工作負載的核心)方面非常有效。然而,隨著序列長度的增長,非線性運算(如注意力機制)由于其二次計算復雜度,逐漸成為性能瓶頸。這些非線性運算主要依賴低效的浮點格式,導致軟件優化困難和硬件開銷較高。

6ce171b0-ee6e-11ef-9310-92fbcf53809c.png

在本論文中,我們深入研究了BFP在非線性運算中的局限性和潛力?;谘芯拷Y果,我們提出了一種軟硬件協同設計框架(DB-Attn),其中包括:

DBFP:一種先進的 BFP 變體,采用樞軸聚焦策略(pivot-focus strategy)以適應不同數據分布,并采用自適應分組策略(adaptive grouping strategy)以實現靈活的指數共享,從而克服非線性運算的挑戰。

DH-LUT:一種創新的查找表(LUT)算法,專門用于基于 DBFP 格式加速非線性運算。

基于DBFP的硬件引擎:我們實現了一個RTL級的DBFP 計算引擎,支持FPGAASIC部署。

實驗結果表明,DB-Attn在LLaMA的Softmax運算上實現了 74%的GPU加速,并在與SOTA設計相比,計算開銷降低10 倍,同時保持了可忽略的精度損失。

02【ICLR-2025】OSTQuant: Refining Large Language Model Quantization with Orthogonal and Scaling Transformations for Better Distribution Fitting

?論文鏈接:https://arxiv.org/abs/2501.13987

后訓練量化(Post-Training Quantization, PTQ)已成為廣泛采用的技術,用于壓縮和加速大語言模型(LLMs)。LLM量化的主要挑戰在于,數據分布的不均衡性和重尾特性會擴大量化范圍,從而減少大多數值的比特精度。近年來,一些方法嘗試通過線性變換來消異常值并平衡通道間差異,但這些方法仍然具有啟發性,往往忽略了對整個量化空間內數據分布的優化。

6d13000e-ee6e-11ef-9310-92fbcf53809c.png

在本文中,我們引入了一種新的量化評估指標——量化空間利用率(QSUR, Quantization Space Utilization Rate),該指標通過衡量數據在量化空間中的利用情況,有效評估數據的量化能力。同時,我們通過數學推導分析了各種變換的影響及其局限性,為優化量化方法提供了理論指導,并提出了基于正交和縮放變換的量化方法(OSTQuant)。

OSTQuant 采用 可學習的等效變換,包括正交變換和縮放變換,以優化權重和激活值在整個量化空間中的分布。此外,我們提出了KL-Top損失函數,該方法在優化過程中減少噪聲,同時在 PTQ 限制的校準數據下保留更多語義信息。

實驗結果表明,OSTQuant在各種 LLM 和基準測試上均優于現有方法。在W4-only 量化設置下,它保留了99.5%的浮點精度。在更具挑戰性的W4A4KV4量化配置中,OSTQuant在 LLaMA-3-8B 模型上的性能差距相比SOTA方法減少了32%。

03【ICLR-2025】MambaQuant:Quantizing the Mamba Family with Variance Aligned Rotation Methods

?論文鏈接:https://arxiv.org/abs/2501.13484

Mamba是一種高效的序列模型,其性能可與Transformer相媲美,并在各種任務中展現出作為基礎架構的巨大潛力。量化(Quantization)通常用于神經網絡,以減少模型大小并降低計算延遲。然而,對于Mamba進行量化的研究仍然較少,而現有的量化方法——盡管在CNN和Transformer模型上表現良好——在Mamba模型上的效果卻不理想(例如,即使在W8A8 設置下,Quarot 在Vim-T?上的準確率仍下降了 21%)。

6d437734-ee6e-11ef-9310-92fbcf53809c.png

我們率先對這一問題進行了深入研究,并識別出了幾個關鍵挑戰。首先,在門控投影(gate projections)、輸出投影(output projections)和矩陣乘法(matrix multiplications)中存在顯著的異常值(outliers)。其次,Mamba 獨特的并行掃描(Parallel Scan, PScan)進一步放大了這些異常值,導致數據分布不均衡且具有重尾特性(heavy-tailed distributions)。第三,即便應用 Hadamard 變換,不同通道中的權重和激活值的方差仍然不一致。

為了解決這些問題,我們提出了MambaQuant,一個后訓練量化(PTQ)框架,其中包括:

KLT 增強旋轉(Karhunen-Loeve Transformation, KLT-Enhanced Rotation):將 Hadamard 變換與 KLT 結合,使得旋轉矩陣能夠適應不同通道分布。

平滑融合旋轉(Smooth-Fused Rotation):均衡通道方差,并可將額外參數合并到模型權重中。

實驗表明,MambaQuant 能夠在Mamba視覺和語言任務中將權重和激活量化至8-bit,且準確率損失低于1%。據我們所知,MambaQuant是首個專門針對 Mamba家族的全面PTQ方案,為其未來的應用和優化奠定了基礎。

04【DAC-2025】BBAL: A Bidirectional Block Floating Point-Based Quantisation Accelerator for Large Language Models

大語言模型(LLMs)由于其包含數十億參數,在部署于邊緣設備時面臨內存容量和計算資源的巨大挑戰。塊浮點(BFP)量化通過將高開銷的浮點運算轉換為低比特的定點運算,從而減少內存和計算開銷。然而,BFP需要將所有數據對齊到最大指數(max exponent),這會導致小值和中等值的丟失,從而引入量化誤差,導致LLMs 的精度下降。

為了解決這一問題,我們提出了一種雙向塊浮點(BBFP, Bidirectional Block Floating-Point)數據格式,該格式降低了選擇最大指數作為共享指數的概率,從而減少量化誤差。利用 BBFP 的特性,我們進一步提出了一種基于雙向塊浮點的量化加速器(BBAL),它主要包括一個基于BBFP 的處理單元(PE)陣列,并配備我們提出的高效非線性計算單元。

6d777606-ee6e-11ef-9310-92fbcf53809c.png

實驗結果表明,與基于異常值感知(outlier-aware)的加速器相比,BBAL在相似計算效率下,精度提升22%;同時,與傳統BFP量化加速器相比,BBAL在相似精度下計算效率提升 40%。

05【DAC-2025】NVR: Vector Runahead on NPUs for Sparse Memory Access

深度神經網絡(DNNs)越來越多地利用稀疏性來減少模型參數規模的擴展。然而,通過稀疏性和剪枝來減少實際運行時間仍然面臨挑戰,因為不規則的內存訪問模式會導致頻繁的緩存未命中(cache misses)。在本文中,我們提出了一種專門針對NPU(神經處理單元)設計的預取機制——NPU向量超前執行(NVR, NPU Vector Runahead),用于解決稀疏DNN任務中的緩存未命中問題。與那些通過高開銷優化內存訪問模式但可移植性較差的方法不同,NVR 采用超前執行(runahead execution),并針對NPU 架構的特點進行適配。

6dad1ee6-ee6e-11ef-9310-92fbcf53809c.png

NVR 提供了一種通用的微架構級解決方案,能夠無需編譯器或算法支持地優化稀疏DNN任務。它以分離、推測性(speculative)、輕量級的硬件子線程的形式運行,并行于 NPU,且額外的硬件開銷低于5%。

實驗結果表明,NVR 將L2緩存未命中率降低了90%(相比最先進的通用處理器預取機制),并在稀疏任務上使NPU計算速度提升4倍(與無預取 NPU 相比)。此外,我們還研究了在NPU 中結合小型緩存(16KB)與NVR預取的優勢。我們的評估表明,增加這一小型緩存的性能提升效果比等量擴展L2緩存高5倍。

這5篇論文聚焦于大語言模型的優化、量化和硬件加速等關鍵技術,從算法創新到硬件適配,系統性地展現了后摩智能在AI軟硬件協同領域的深厚積累。研究成果從計算效率、能效優化和部署靈活性等多個維度,突破了大模型高效部署的技術瓶頸,為邊緣計算場景下的大模型壓縮與加速提供了創新性解決方案。期待這些工作能夠為大模型在端邊側的高效部署提供新范式,推動通用智能向更普惠、更可持續的方向演進。

接下來,我們將對5篇論文展開深度解析,詳細探討每篇論文的技術細節、創新點等,敬請關注。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    459

    文章

    52253

    瀏覽量

    436995
  • 計算機
    +關注

    關注

    19

    文章

    7636

    瀏覽量

    90272
  • AI
    AI
    +關注

    關注

    88

    文章

    34421

    瀏覽量

    275730
  • 后摩智能
    +關注

    關注

    0

    文章

    33

    瀏覽量

    1334

原文標題:后摩前沿 | AAAI+ICLR+DAC,后摩智能5篇論文入選國際頂會

文章出處:【微信號:后摩智能,微信公眾號:后摩智能】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    智能論文入選三大國際

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際會收錄 5 論文,
    的頭像 發表于 05-29 15:37 ?227次閱讀

    云知聲四論文入選自然語言處理ACL 2025

    結果正式公布。云知聲在此次國際學術盛會中表現卓越,共有4論文被接收,其中包括2論文(Ma
    的頭像 發表于 05-26 14:15 ?340次閱讀
    云知聲四<b class='flag-5'>篇</b><b class='flag-5'>論文</b><b class='flag-5'>入選</b>自然語言處理<b class='flag-5'>頂</b><b class='flag-5'>會</b>ACL 2025

    智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,智能自研NPU迅速實現Qwen3 系列模型(Qwen3 0.6B-14B)在端邊側的高效部署。這一成果充分彰顯了
    的頭像 發表于 05-07 16:46 ?400次閱讀

    智能入選中國移動AI能力聯合艦隊

    在第八屆數字中國建設峰會期間,中國移動正式發布 “AI 能力聯合艦隊”。作為存算一體芯片領域的先鋒,智能憑借顛覆式創新技術與強勁的算力支持能力,成功入選中國移動 “AI 能力聯合艦
    的頭像 發表于 05-06 17:14 ?433次閱讀

    智能攜手聯想開天打造基于DeepSeek的信創AI PC

    在AI技術重構產業生態的關鍵節點,國產芯片與國產AI模型的深度融合正成為推動信創產業發展的關鍵力量。智能自主研發的NPU芯片漫界M3
    的頭像 發表于 02-24 17:51 ?1103次閱讀

    經緯恒潤功能安全AI 智能論文成功入選EMNLP 2024!

    近日,經緯恒潤在智能體(AIAgent)領域再獲佳績,其論文《Aegis
    的頭像 發表于 10-18 08:00 ?649次閱讀
    經緯恒潤功能安全AI <b class='flag-5'>智能</b>體<b class='flag-5'>論文</b>成功<b class='flag-5'>入選</b>EMNLP 2024!

    智能首款存算一體智駕芯片獲評突出創新產品獎

    近日,2024年6月29日,由深圳市汽車電子行業協會主辦的「第十三屆國際汽車電子產業峰會暨2023年度汽車電子科學技術獎頒獎典禮」在深圳寶安隆重舉行。智能首款存算一體智駕芯片——
    的頭像 發表于 09-24 16:51 ?830次閱讀

    智能與聯想攜手共創AI PC新紀元

    近日,國內領先的存算一體AI芯片創新企業智能與全球知名科技企業聯想集團正式簽署戰略合作協議,標志著雙方在AI PC技術創新與應用領域的深度合作正式啟航。此次合作,旨在融合
    的頭像 發表于 08-02 16:11 ?812次閱讀

    智能與聯想集團簽署戰略協議 共同探索AI PC技術創新與應用

    ? 近日,智能與聯想集團宣布簽署戰略合作協議,雙方將共同探索AI PC的技術創新與應用。根據協議約定,
    的頭像 發表于 07-31 17:24 ?1208次閱讀

    地平線科研論文入選國際計算機視覺ECCV 2024

    近日,地平線兩論文入選國際計算機視覺ECCV 2024,自動駕駛算法技術再有新突破。
    的頭像 發表于 07-27 11:10 ?1347次閱讀
    地平線科研<b class='flag-5'>論文</b><b class='flag-5'>入選</b><b class='flag-5'>國際</b>計算機視覺<b class='flag-5'>頂</b><b class='flag-5'>會</b>ECCV 2024

    芯動力科技論文入選ISCA 2024,與國際巨頭同臺交流研究成果

    布宜諾斯艾利斯舉行的ISCA 2024會議上發表演講,與Intel、AMD等國際知名企業同臺交流。 本屆ISCA共收到來自全球423高質量論文投稿,經過嚴謹的評審流程
    的頭像 發表于 07-18 11:16 ?996次閱讀
    芯動力科技<b class='flag-5'>論文</b><b class='flag-5'>入選</b>ISCA 2024,與<b class='flag-5'>國際</b>巨頭同臺交流研究成果

    谷歌DeepMind被曝抄襲開源成果,論文還中了流會議

    谷歌DeepMind一中了流新生代會議CoLM 2024的論文被掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項研究。開源的那種。
    的頭像 發表于 07-16 18:29 ?838次閱讀
    谷歌DeepMind被曝抄襲開源成果,<b class='flag-5'>論文</b>還中了<b class='flag-5'>頂</b>流會議

    存算一體AI芯片企業智能完成數億元戰略融資

    近日,國內領先的存算一體AI 芯片創新企業智能完成數億元人民幣的戰略融資,由中國移動旗下北京中移數字新經濟產業基金、上海中移數字轉型產業基金(以下統稱“中國移動產業鏈發展基金”)共同對公司進行投資。本輪不僅為
    的頭像 發表于 07-15 15:32 ?745次閱讀

    智能推出邊端大模型AI芯片M30,展現出存算一體架構優勢

    電子發燒友網報道(文/李彎彎)近日,智能推出基于存算一體架構的邊端大模型AI芯片——漫界??M30,最高算力100TOPS,典型功耗
    的頭像 發表于 07-03 00:58 ?5041次閱讀

    智能引領AI芯片革命,推出邊端大模型AI芯片M30

    在人工智能(AI)技術飛速發展的今天,AI大模型的部署需求正迅速從云端向端側和邊緣側設備遷移。這一轉變對AI芯片的性能、功耗和響應速度提出了前所未有的挑戰。正是在這樣的背景下,智能
    的頭像 發表于 06-28 15:13 ?1079次閱讀
    主站蜘蛛池模板: 色之综合网 | 永久免费精品影视网站 | 日韩一级黄色录像 | 无遮挡一级毛片视频 | 亚洲国产成人精彩精品 | 在线视频一区二区三区四区 | 天天看天天射天天碰 | 萌白酱一线天粉嫩喷水在线观看 | 天天做天天爱天天做天天吃中 | 亚洲 欧美 成人 | 特黄特a级特别特级特毛片 特黄特色大片免费播放路01 | 六月婷婷精品视频在线观看 | 操农村妇女| 2019国产情侣 | 天天操夜夜草 | 国产www在线播放 | 在线观看亚洲成人 | 国产亚洲精品aa在线看 | 永久免费精品视频 | 日本毛片大全 | 超级碰碰青草久热国产 | 在线观看天堂 | 国产又爽又黄又粗又大 | 色五月情 | 亚洲 午夜在线一区 | 又粗又大又爽又色又过瘾视频 | 日本黄色录像 | 久久亚洲精品国产精品婷婷 | 91网站在线看 | 91九色麻豆 | 久久天天躁狠狠躁夜夜躁 | 日本系列 1页 亚洲系列 | 国产伦子一区二区三区四区 | 天天涩综合 | 天天成人 | 成人黄网大全在线观看 | 最近高清在线国语 | 美女h片 | 黄色毛片网 | 轻点灬大ji巴太粗太长了爽文 | 久久伊人成人 |