在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

“AI芯片0.5與2.0”還有這區別?

t1PS_TechSugar ? 來源: 聶磊 ? 作者:電子發燒友 ? 2019-03-01 14:02 ? 次閱讀

我從2017年的ISSCC開始寫AI硬件相關的文章,到現在剛好兩年了。在剛剛過去的ISSCC2019上,AI芯片仍然是一個熱點,有幾個session都和AI硬件相關。同時,CGO19會議的Compilers for Machine Learning Workshop,各種ML編譯器紛紛出場。從大環境來看,第一代AI芯片軟硬件技術基本成熟,產業格局逐漸穩定,已經為規模應用做好了準備,可稱之為AI芯片0.5版本。而在ISSCC會議上,大神Yann LeCun在講演中提出了對未來AI芯片的需求[1],開啟了我們對新的架構(AI芯片2.0)的思考。

ISSCC2019

兩年前,我在公眾號發文分析了ISSCC2017Deep-Learning Processors Session中的7篇文章。到今天,不僅AI芯片技術取得了長足的進步,大家寫文章的熱情也越來越高,相信后面會看到各種對ISSCC2019論文進行分析的文章。所以,我就不再單獨討論具體的論文了,只談一些綜合的感受。

這次我看到論文摘要的時候,首先是還是看Session 7和14的Machine Learning部分。而我最關注的是三星的論文“An11.5TOPS/W 1024-MAC Butterfly Structure Dual-Core Sparsity-Aware Neural Processing Unit in 8nm Flagship Mobile SoC”。大家知道,三星在手機芯片中加入NPU是相對較晚的,應該說在設計中吸收了學界和業界這幾年AI芯片研發的經驗。另外,這也是業界首次公開在規模量產芯片(旗艦手機芯片)中的NPU細節,一方面反映了“真實”和“實用”(不追求指標驚人,而是有更明確的優化目標)的結果,另一方面也標志著整個產業對NPU設計的認識已經比較成熟。

另外一個重要看點當然是Yann LeCun教授的演講。ISSCC本來是半導體產業中的“電路(circuit)”會議,這幾年越來越多的加入架構層面的內容。這次請AI大神做Keynote就更有意思了。大神在ISSCC講演的幾天之內還做了一波PR,也有宣傳Facebook自研芯片的意思。當然,大神的演講還是非常棒的,特別是對新架構的分析。這幾天已經有很多文章介紹這個研究,我這里只貼一下他分享的的AI硬件相關的經驗教訓以及對未來的展望。

source:ISSCC2019

前兩個部分反映了上世紀90年底開始到今天的AI熱潮中AI硬件的嘗試以及整個AI發展中我們學習到的經驗和教訓。第三部分是對新架構的預測,這個我將在本文第三部分重點討論。第四部分主要講一些算法的趨勢,特別是Self-Supervised Learning(蛋糕上的櫻桃)。

最后,他還分享了一下自己的一些其它思考,特別是對于SNN的質疑。這部分內容這兩天也引起很大爭議。SNN現在確實面臨實用性的問題,Neuromorphic的初衷是模仿人腦,但由于我們現在使用的模型太簡單,這種模型和算法是否是正確路徑確實還有疑問。第二部分,他對模擬計算也有一些疑問,看起來也都是老問題。我自己沒有參會,所以不太清楚他具體的講法是什么。不過我個人覺得模擬計算還是很有前途的(或者說是不得不走的路)。

source:ISSCC2019

如果說Yann LeCun教授對AI芯片的新架構提出了需求,那么另外一個推動AI芯片技術進步的要素將是底層半導體技術的進步,這也正是ISSCC的重點。從這次會議來看,存儲技術(包括存內計算),模擬計算,硅光技術等等,在AI,5G等需求的驅動下都非?;钴S。這些技術和AI芯片的關系之前都有介紹,本文就不贅述了。

Compilers for Machine Learning

就在ISSCC的同時,“The International Symposium on Code Generation and Optimization (CGO)”上的“Compilers for Machine Learning” workshop[2]也相當熱鬧。我們不妨先看看討論的內容:

會議除了目前三大AI/ML編譯器XLA(Tensorflow),TVM,Glow(Pytorch)之外;還有Intel的nGraph,PlaidML;Nvidia的TensorRT;Xilinx用于ACAP的編譯器。另外還有大神Chris的talk和其它來自學界的講演。會議大部分Slides在網上都可以看到,這里就不具體介紹了。我在一年前寫過一篇文章“Deep Learning的IR“之爭,主要討論IR的問題,和編譯器也是密切相關的。到今天,這個領域確實也是現在大家競爭的一個焦點。

XLA是比較早提編譯器概念的,但到現在主要還是針對Google的TPU進行優化。TVM相當活躍,前一段時間還搞了TVM conference,除了東家Amazon之外,華為,Intel,Xilinx,甚至“競爭對手” Facebook都有參加。TVM的“野心”也很大,從最早的編譯器已經發展到了TVM Stack(如下圖,和我之前文章里貼的圖已經有了很大的變化),從新的IR(Relay),到自動編譯優化的AutoTVM,到開源AI硬件加速器(VTA),開了很多有意思的話題。

source:tvm.ai

Glow是Pytorch的一部分,在AI編譯器里算后起之秀,吸收了XLA和TVM的經驗,有自己的特色,目前已經有一些廠商站臺,也比較活躍。

XLA和Glow背后是Google和Facebook以及相應Learning Framework的生態,應該是未來AI編譯器的主要玩家。而這些開源的編譯器項目,也為各個做AI芯片的廠商提供了編譯器框架的基礎,大大降低了大家自研編譯器的門檻。另一類編譯器是針對專門硬件的,主要是芯片大廠的自研編譯器,比如Nvidia的TensorRT,以及Intel,Xilinx的編譯器。雖然,目前手工優化庫也還是重要的優化方式,在一些架構上還是比編譯器的結果好很多,但總的來說,編譯器項目的繁榮,也是AI芯片產業逐漸成熟的表現

AI芯片2.0

最后,我們詳細看看Yann LeCun教授對未來AI硬件的預測。他的思考主要是從算法演進的需求出發,幾個重點包括:

Dynamic Networks,簡單來說就是神經網絡的結構和數據相關,會根據輸入數據(或者中間結果)選擇不同的分支和操作。而目前AI加速,特別是對于Inference的加速,其高效執行的一個前提就是網絡的確定性(靜態性),其控制流和數據流是可以預先安排和優化好的。動態網絡相當于把這個前提打破了,對架構的靈活性有更高的要求,需要在靈活性和高效性之間得找到新的平衡點。

Neural Network on Graphs。目前的神經網絡處理的基本數據主要是張量tensor,相應的,目前的AI硬件的基本要求是對tensor運算的加速。而對于圖網絡來說,數據變成了以tensor為節點和邊的圖。如果圖網絡成為主流,則又改變了AI硬件設計的一個前提。專門用于圖計算的芯片已經是一個重要的研究方向,落地的速度估計還得看算法演講的速度有多快。

Memory-Augmented Networks。這個主要是對存儲架構的新需求,特別是對長期記憶的模擬(在大量存儲中實現Attention機制,我在之前的文章里也討論過)。未來我們可能需要在大量memory中快速找到關注的內容,這要求存儲器不只像目前一樣實現簡單的存取功能,還需要具備查詢和運算能力,比如根據輸入向量找到一組值;或者一次讀取多個值,然后和一個輸入向量做運算并輸出結果。

Complex Inference and Search。這個問題簡單來說就是在做inference的時候可能也需要支持反向傳播計算,這當然會影響目前的單向inference運算加速的架構。

Sparse Activations。這個預測是說未來的神經網絡可能是一個功能非常強大的巨型網絡,但針對一個任務只需要激活極少一部分(之前Jeff Dean也做過類似預測)。這個問題涉及兩個方面,一是如何利用稀疏性(比如像大腦一樣只有2%激活);另一個問題在于這個巨型網絡的存儲和運算。目前我們還不知道在這個方向上未來會發展到什么程度,不過這個趨勢可能導致我們必須應對整個神經網絡的存儲和運算架構中出現的新的瓶頸問題。

當然,上述一些算法發展的趨勢是Yann LeCun教授的看法,未來我們還可能看到其它算法上的演進甚至變革。芯片設計,特別是Domain-specific架構的芯片是由該領域的算法驅動的。算法的改變會影響我們的優化策略和trade off的sweet spot。正如Yann LeCun教授所說“New architectural concepts such as dynamic networks, graph data, associative-memory structures, and inference-through-minimization procedures are likely to affect the type of hardware architectures that will be required in the future.”。

第一代AI芯片從2016年開始爆發,到目前在架構設計上已經比較穩定,相關的編譯器的技術越來越成熟,整個產業格局基本成型。可以說,目前的AI芯片軟硬件技術已經為規模商用做好了準備(AI芯片0.5)。未來的一到三年中,我們應該可以看到“無芯片不AI”的景象(AI芯片1.0)。再看更遠的未來,隨著算法演進,應用落地,會不斷給芯片提出新的要求,加上底層半導體技術的進步,我們可以期待在3到5年內看到第二次AI芯片技術創新的高潮(AI芯片2.0)。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    33998

    瀏覽量

    274993
  • 人工智能
    +關注

    關注

    1804

    文章

    48599

    瀏覽量

    245930

原文標題:【科普】AI芯片0.5與2.0

文章出處:【微信號:TechSugar,微信公眾號:TechSugar】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    正式提出“智能體化用戶體驗”方向,并啟動“天璣智能體化體驗領航計劃”。更值得注意的是,其三大AI工具鏈的發布——天璣開發工具集、AI開發套件2.0,以及升級的天璣星速引擎與旗艦芯片天璣
    發表于 04-13 19:52

    AIGC和AI有什么區別

    AIGC是AI在內容生成領域的一個特定應用方向,AI的技術發展為AIGC提供了基礎和支撐。那么,AIGC和AI有什么區別呢?下面,AI部落小
    的頭像 發表于 02-20 10:33 ?601次閱讀

    MLCommons推出AI基準測試0.5

    開放式機器學習工程聯盟 MLCommons 在美國加州當地時間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準測試的 0.5 版,這是該測試的第一個公開版本
    的頭像 發表于 12-12 16:47 ?709次閱讀

    谷歌發布Gemini 2.0 AI模型

    谷歌近日正式推出了新一代AI模型——Gemini 2.0。此次更新引入了名為“深度研究”的新特性,旨在為用戶提供更加全面和深入的復雜主題探索與報告撰寫輔助。 Gemini 2.0通過高級推理和長上
    的頭像 發表于 12-12 10:13 ?557次閱讀

    阿里國際站首推全流程AI產品:AI生意助手2.0

    阿里巴巴國際站近日正式推出了其首個全流程AI產品——AI生意助手2.0。這一創新產品的問世,標志著阿里巴巴國際站在推動中小企業外貿業務智能化方面邁出了重要一步。 AI生意助手
    的頭像 發表于 10-29 10:22 ?839次閱讀

    立體聲DAC芯片與普通DAC芯片的使用區別是什么?

    立體聲DAC芯片與普通DAC芯片除了數據接口不太一樣外,在使用上還有什么區別嗎,如PCM5012A這種芯片能不能把它當作普通雙通道DAC來
    發表于 10-23 07:49

    請問同一款芯片,SOIC和SOP除了封裝不同外,還有其他區別嗎?

    您好,TI工程師,請問同一款芯片,SOIC和SOP除了封裝不同外,還有其他區別么?SOP和SOIC可以替換使用么?能不能詳細解釋下?
    發表于 10-12 07:05

    HDMI 2.0與HDMI 2.1有什么區別

    HDMI 2.0與HDMI 2.1是高清多媒體接口(High-Definition Multimedia Interface)的兩個不同版本,它們在帶寬、傳輸速度、支持的視頻格式、顯示效果以及新技術支持等方面存在顯著差異。以下是對兩者區別的詳細分析,旨在提供全面且深入的理
    的頭像 發表于 07-25 18:15 ?5.1w次閱讀

    ai大模型和傳統ai區別在哪?

    AI大模型和傳統AI區別主要體現在以下幾個方面: 數據量和訓練規模 AI大模型通常需要大量的數據進行訓練,以獲得更好的性能。相比之下,傳統AI
    的頭像 發表于 07-16 10:06 ?2377次閱讀

    AI大模型與傳統AI區別

    AI大模型(如LLM,即大型語言模型)與傳統AI在多個方面存在顯著的區別。以下將從技術層面、應用場景、性能表現、計算資源和成本、以及發展趨勢和挑戰等角度進行詳細闡述。
    的頭像 發表于 07-15 11:37 ?5174次閱讀

    人工智能芯片與服務器芯片區別

    人工智能芯片AI芯片)與服務器芯片在多個方面存在顯著差異,這些差異主要體現在設計目標、功能特性、應用場景以及技術發展趨勢上。以下是對兩者區別
    的頭像 發表于 07-12 18:21 ?2323次閱讀

    hdmi2.1和2.0的顯著區別

    HDMI 2.1和HDMI 2.0在多個方面存在顯著的差異。以下是它們之間的主要區別: 傳輸速度: HDMI 2.0的傳輸頻寬為18Gbps。 HDMI 2.1的傳輸頻寬大幅擴張到48Gbps,這是
    的頭像 發表于 06-21 10:10 ?2113次閱讀

    hdmi線1.4和2.0有啥區別

    HDMI線1.4和2.0在多個方面存在顯著的區別,以下是對它們之間差異的分點表示和歸納: 最大帶寬: HDMI 1.4:最大帶寬為10.2 Gbps。 HDMI 2.0:最大帶寬提升至18 Gbps
    的頭像 發表于 06-21 10:00 ?4589次閱讀

    AI芯片會導元件中間商消失嗎?

    元件AI芯片
    芯廣場
    發布于 :2024年06月19日 18:10:01

    AI芯片哪里買?

    AI芯片
    芯廣場
    發布于 :2024年05月31日 16:58:19
    主站蜘蛛池模板: 欧美精品成人a多人在线观看 | 国产汉服被啪福利在线观看 | 伊人啪| 日本在线不卡免 | 四虎a级欧美在线观看 | 米奇影院777 | 明日花绮罗在线观看 | 康熙古代高h细节肉爽文全文 | 男人j进女人j免费视频视频 | 欧美黑人xxxx猛牲大交 | 特黄特色视频 | 伊人成年综合网 | 人人射人人插 | 四虎新地址4hu 你懂的 | 亚欧洲乱码专区视频 | 好大好紧好爽好湿润视频 | 国产精品久久女同磨豆腐 | 免费福利影院 | 天天天天做夜夜夜做 | 欧美大片国产在线永久播放 | 免费观看在线观看 | 午夜韩国理论片在线播放 | 99久久香蕉国产综合影院 | 性生大片一级毛片免费观看 | 丁香花五月天婷婷 | 国产呦系列呦交 | 国产一级做a爰片久久毛片 国产一级做a爰片久久毛片男 | 亚洲高清色 | 狠狠色狠狠色综合日日小蛇 | 久久国产成人午夜aⅴ影院 久久国产福利 | 日本国产高清色www视频在线 | 久久夜夜操 | 4455ee日本高清免费观看 | 久久综合久久久久 | 狠狠色狠狠色综合久久一 | 狠狠色噜噜狠狠狠狠999米奇 | 色欧美在线视频 | 天天干影院 | 色视频在线 | 激情六月丁香 | 国产精品久久在线 |