在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IBM Research AI團(tuán)隊(duì)用大規(guī)模的模擬存儲(chǔ)器陣列訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)

Qp2m_ggservicer ? 來源:未知 ? 作者:李倩 ? 2018-06-16 16:15 ? 次閱讀

IBM 近日提出的全新芯片設(shè)計(jì)可以通過在數(shù)據(jù)存儲(chǔ)的位置執(zhí)行計(jì)算來加速全連接神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。研究人員稱,這種「芯片」可以達(dá)到 GPU 280 倍的能源效率,并在同樣面積上實(shí)現(xiàn) 100 倍的算力。該研究的論文已經(jīng)發(fā)表在上周出版的 Nature 期刊上。

在最近發(fā)表在Nature上的一篇論文中,IBM Research AI團(tuán)隊(duì)用大規(guī)模的模擬存儲(chǔ)器陣列訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN),達(dá)到了與GPU相當(dāng)?shù)木取Q芯咳藛T相信,這是在下一次AI突破所需要的硬件加速器發(fā)展道路上邁出的重要一步。

未來人工智能將需要大規(guī)模可擴(kuò)展的計(jì)算單元,無論是在云端還是在邊緣,DNN都會(huì)變得更大、更快,這意味著能效必須顯著提高。雖然更好的GPU或其他數(shù)字加速器能在某種程度上起到幫助,但這些系統(tǒng)都不可避免地在數(shù)據(jù)的傳輸,也就是將數(shù)據(jù)從內(nèi)存?zhèn)鞯接?jì)算處理單元然后回傳上花費(fèi)大量的時(shí)間和能量。

模擬技術(shù)涉及連續(xù)可變的信號(hào),而不是二進(jìn)制的0和1,對(duì)精度具有內(nèi)在的限制,這也是為什么現(xiàn)代計(jì)算機(jī)一般是數(shù)字型的。但是,AI研究人員已經(jīng)開始意識(shí)到,即使大幅降低運(yùn)算的精度,DNN模型也能運(yùn)行良好。因此,對(duì)于DNN來說,模擬計(jì)算有可能是可行的。

但是,此前還沒有人給出確鑿的證據(jù),證明使用模擬的方法可以得到與在傳統(tǒng)的數(shù)字硬件上運(yùn)行的軟件相同的結(jié)果。也就是說,人們還不清楚DNN是不是真的能夠通過模擬技術(shù)進(jìn)行高精度訓(xùn)練。如果精度很低,訓(xùn)練速度再快、再節(jié)能,也沒有意義。

在IBM最新發(fā)表的那篇Nature論文中,研究人員通過實(shí)驗(yàn),展示了模擬非易失性存儲(chǔ)器(NVM)能夠有效地加速反向傳播(BP)算法,后者是許多最新AI進(jìn)展的核心。這些NVM存儲(chǔ)器能讓BP算法中的“乘-加”運(yùn)算在模擬域中并行。

研究人員將一個(gè)小電流通過一個(gè)電阻器傳遞到一根導(dǎo)線中,然后將許多這樣的導(dǎo)線連接在一起,使電流聚集起來,就實(shí)現(xiàn)了大量計(jì)算的并行。而且,所有這些都在模擬存儲(chǔ)芯片內(nèi)完成,不需要數(shù)字芯片里數(shù)據(jù)在存儲(chǔ)單元和和處理單元之間傳輸?shù)倪^程。

IBM的大規(guī)模模擬存儲(chǔ)器陣列,訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)達(dá)到了GPU的精度

(圖片來源:IBM Research)

由于當(dāng)前NVM存儲(chǔ)器的固有缺陷,以前的相關(guān)實(shí)驗(yàn)都沒有在DNN圖像分類任務(wù)上得到很好的精度。但這一次,IBM的研究人員使用創(chuàng)新的技術(shù),改善了很多不完善的地方,將性能大幅提升,在各種不同的網(wǎng)絡(luò)上,都實(shí)現(xiàn)了與軟件級(jí)的DNN精度。

單獨(dú)看這個(gè)大規(guī)模模擬存儲(chǔ)器陣列里的一個(gè)單元,由相變存儲(chǔ)器(PCM)和CMOS電容組成,PCM放長期記憶(權(quán)重),短期的更新放在CMOS電容器里,之后再通過特殊的技術(shù),消除器件與器件之間的不同。研究人員表示,這種方法是受了神經(jīng)科學(xué)的啟發(fā),使用了兩種類型的“突觸”:短期計(jì)算和長期記憶。

這些基于NVM的芯片在訓(xùn)練全連接層方面展現(xiàn)出了極強(qiáng)的潛力,在計(jì)算能效 (28,065 GOP/sec/W) 和通量(3.6 TOP/sec/mm^2)上,超過了當(dāng)前GPU的兩個(gè)數(shù)量級(jí)。

這項(xiàng)研究表明了,基于模擬存儲(chǔ)器的方法,能夠?qū)崿F(xiàn)與軟件等效的訓(xùn)練精度,并且在加速和能效上有數(shù)量級(jí)的提高,為未來設(shè)計(jì)全新的AI芯片奠定了基礎(chǔ)。研究人員表示,他們接下來將繼續(xù)優(yōu)化,處理全連接層和其他類型的計(jì)算。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • IBM
    IBM
    +關(guān)注

    關(guān)注

    3

    文章

    1768

    瀏覽量

    74870
  • 存儲(chǔ)器
    +關(guān)注

    關(guān)注

    38

    文章

    7529

    瀏覽量

    164371
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1908

    瀏覽量

    35228

原文標(biāo)題:GGAI 前沿 | IBM全新AI芯片設(shè)計(jì)登上Nature:算力是GPU的100倍

文章出處:【微信號(hào):ggservicerobot,微信公眾號(hào):高工智能未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,在圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-24 10:42 ?804次閱讀

    脈沖神經(jīng)網(wǎng)絡(luò)怎么訓(xùn)練

    脈沖神經(jīng)網(wǎng)絡(luò)(SNN, Spiking Neural Network)的訓(xùn)練是一個(gè)復(fù)雜但充滿挑戰(zhàn)的過程,它模擬了生物神經(jīng)元通過脈沖(或稱為尖峰)進(jìn)行信息傳遞的方式。以下是對(duì)脈沖
    的頭像 發(fā)表于 07-12 10:13 ?731次閱讀

    殘差網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨(dú)特的結(jié)構(gòu)設(shè)計(jì)在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失
    的頭像 發(fā)表于 07-11 18:13 ?1191次閱讀

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的過程,涉及到多個(gè)步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語言處理、語音識(shí)別等領(lǐng)域。然而,隨著時(shí)間的推移,數(shù)據(jù)分布可能會(huì)
    的頭像 發(fā)表于 07-11 10:25 ?531次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型嗎

    處理、語音識(shí)別等領(lǐng)域取得了顯著的成果。PyTorch是一個(gè)開源的深度學(xué)習(xí)框架,由Facebook的AI研究團(tuán)隊(duì)開發(fā)。它以其易用性、靈活性和高效性而受到廣泛歡迎。在PyTorch中,有許多預(yù)訓(xùn)練
    的頭像 發(fā)表于 07-11 09:59 ?827次閱讀

    神經(jīng)網(wǎng)絡(luò)如何用無監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種
    的頭像 發(fā)表于 07-09 18:06 ?901次閱讀

    如何利用Matlab進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練

    ,使得神經(jīng)網(wǎng)絡(luò)的創(chuàng)建、訓(xùn)練和仿真變得更加便捷。本文將詳細(xì)介紹如何利用Matlab進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練,包括網(wǎng)絡(luò)創(chuàng)建、數(shù)據(jù)預(yù)處理、
    的頭像 發(fā)表于 07-08 18:26 ?2074次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練的基本原理

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)是一種受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而構(gòu)建的數(shù)學(xué)模型,用于模擬人腦處理信息的方式。它在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域具有廣
    的頭像 發(fā)表于 07-05 09:16 ?819次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需
    的頭像 發(fā)表于 07-04 13:20 ?1067次閱讀

    bp神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:14 ?953次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    訓(xùn)練過程以及應(yīng)用場景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋深度學(xué)習(xí)模型,其核心思想是利用卷積
    的頭像 發(fā)表于 07-03 09:15 ?529次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    模型: 多層感知(Multilayer Perceptron,MLP): 多層感知是最基本的深度神經(jīng)網(wǎng)絡(luò)模型,由多個(gè)全連接層組成。每個(gè)隱藏層的
    的頭像 發(fā)表于 07-02 10:00 ?1650次閱讀

    如何訓(xùn)練和優(yōu)化神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)是人工智能領(lǐng)域的重要分支,廣泛應(yīng)用于圖像識(shí)別、自然語言處理、語音識(shí)別等多個(gè)領(lǐng)域。然而,要使神經(jīng)網(wǎng)絡(luò)在實(shí)際應(yīng)用中取得良好效果,必須進(jìn)行有效的訓(xùn)練和優(yōu)化。本文將從神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-01 14:14 ?548次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電圖降噪

    ;為等效的前饋網(wǎng)絡(luò)。損失函數(shù)計(jì)算 為序列中所有時(shí)間步長的平均成本。在本文 中,我們使用深度循環(huán)去噪神經(jīng)網(wǎng)絡(luò),它是 DRNN 和去噪自動(dòng)編碼的特定混合體。具體結(jié)構(gòu)如下圖: 為了生成合成
    發(fā)表于 05-15 14:42

    利用神經(jīng)網(wǎng)絡(luò)對(duì)腦電圖(EEG)降噪

    數(shù)據(jù)與干凈的EEG數(shù)據(jù)構(gòu)成訓(xùn)練數(shù)據(jù),并且分成訓(xùn)練、驗(yàn)證和測試數(shù)據(jù)集。 繪制有噪聲EEG數(shù)據(jù)與干凈的EEG數(shù)據(jù) 顯然,傳統(tǒng)的任何算法很難將EEG數(shù)據(jù)從噪聲中濾出來。 定義神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),之所以選擇長短期記憶
    發(fā)表于 04-30 20:40
    主站蜘蛛池模板: 奇米视频在线观看 | 亚州免费一级毛片 | 一级视频在线 | 黄网站色 | 韩国男女无遮挡高清性视频 | 天天干干干干 | 欧美成人伊人久久综合网 | 射吧亚洲| 色老头免费视频 | 六月丁香激情网 | 华人被黑人粗大猛然进 | 天天摸天天操免费播放小视频 | 亚洲色图欧美激情 | 四虎影永久在线观看网址 | 好吊妞视频988在线播放 | 久久成人网18网站 | 国产一级特黄在线视频 | 天天天天做夜夜夜夜做 | 妖精视频一区二区三区 | 免费人成年短视频在线观看免费网站 | sss欧美一区二区三区 | 成年人网站黄色 | 黄字幕网 | 欧美特黄视频在线观看 | 九九热免费在线观看 | 一级视频片 | 日本五十交尾在线观看 | 综合色区 | 国产逼逼视频 | 日韩午夜| 天天免费 | 国产色综合天天综合网 | 国产床戏无遮掩视频播放 | 欧美一区二区视频三区 | 乱人伦精品一区二区 | 国产一级特黄老妇女大片免费 | 国产第一页在线观看 | 色激情综合网 | 女人爽到喷水的视频大全在线观看 | 成人在线一区二区三区 | 999国产精品 |