在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

第一個支持圖神經(jīng)網(wǎng)絡(luò)的并行處理框架出現(xiàn)了

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-01 09:31 ? 次閱讀

第一個支持圖神經(jīng)網(wǎng)絡(luò)的并行處理框架出現(xiàn)了!北京大學(xué)、微軟亞洲研究院的研究人員近日發(fā)表論文,提出NGra,這是第一個支持大規(guī)模GNN的系統(tǒng)。

GNN(圖神經(jīng)網(wǎng)絡(luò))代表了一種新興的計算模型,這自然地產(chǎn)生了對在大型graph上應(yīng)用神經(jīng)網(wǎng)絡(luò)模型的需求。

但是,由于GNN固有的復(fù)雜性,這些模型超出了現(xiàn)有深度學(xué)習(xí)框架的設(shè)計范圍。此外,這些模型不容易在并行硬件(如GPU)上有效地加速。

近日,北京大學(xué)、微軟亞洲研究院的多位研究人員在arXiv上發(fā)布了一篇新論文,提出了解決這些問題的有效方案。

論文題為Towards Efficient Large-Scale Graph Neural Network Computing:

論文地址:https://arxiv.org/pdf/1810.08403.pdf

作者表示:“我們提出NGra,這是第一個基于圖形的深度神經(jīng)網(wǎng)絡(luò)并行處理框架。”

NGra描述了一種新的SAGA-NN模型,用于將深度神經(jīng)網(wǎng)絡(luò)表示為頂點程序(vertex programs) ,其中每一層都在明確定義的圖形操作階段(Scatter,ApplyEdge,Gather,ApplyVertex)。

這個模型不僅允許直觀地表示GNN,而且還可以方便地映射到高效的數(shù)據(jù)流表示。NGra通過GPU核心或多GPU的自動圖分區(qū)和基于chunk的流處理透明地解決了可擴展性挑戰(zhàn),仔細考慮了數(shù)據(jù)局部性、數(shù)據(jù)移動以及并行處理和數(shù)據(jù)移動的重疊。

NGra通過在GPU上進行高度優(yōu)化的Scatter / Gather操作進一步提高了效率,盡管它具有稀疏性。我們的評估表明,NGra可以擴展到現(xiàn)有框架無法直接處理的大型實際圖形,而在TensorFlow的multiple-baseline設(shè)計上,即使在小規(guī)模上也可以實現(xiàn)約4倍的加速。

第一個支持大規(guī)模GNN的系統(tǒng)

NGra是第一個支持大規(guī)模GNN(圖神經(jīng)網(wǎng)絡(luò))的系統(tǒng),這是一個在GPU上可擴展、高效的并行處理引擎。

NGra自然地將數(shù)據(jù)流(dataflow)與頂點程序抽象(vertex-program abstraction)結(jié)合在一個新模型中,我們將其命名為SAGA-NN(Scatter-ApplyEdge-Gather-ApplyVertex with Neural Networks)。

雖然SAGA可以被認為是GAS(Gather-Apply-Scatter)模型的變體,但SAGA-NN模型中的用戶定義函數(shù)允許用戶通過使用數(shù)據(jù)流抽象來表示對vertex或edge數(shù)據(jù)(被視為tensors)的神經(jīng)網(wǎng)絡(luò)計算,而不是專為傳統(tǒng)圖形處理而設(shè)計(例如PageRank、 connected component和最短路徑等算法

與DNN一樣,高效地使用GPU對于GNN的性能至關(guān)重要,而且由于要處理的是大型圖形結(jié)構(gòu),這一點更為重要。為了實現(xiàn)超出GPU物理限制的可擴展性,NGra將圖形(頂點和邊緣數(shù)據(jù))透明地劃分為塊(chunk),并將SAGA-NN模型中表示的GNN算法轉(zhuǎn)換為具有chunk粒度的運算符的dataflow graph,從而在單個GPU或多個GPU上啟用基于chunk的并行流處理。

NGra engine的效率在很大程度上取決于NGra如何管理和調(diào)度并行流處理,以及在GPU上關(guān)鍵圖形傳播運算符Scatter和Gather的實現(xiàn)。

NGra非常注重數(shù)據(jù)局部性,以最大限度地減少GPU內(nèi)存中的數(shù)據(jù)交換,并在GPU內(nèi)存中最大化數(shù)據(jù)塊的重用,同時將數(shù)據(jù)移動和計算以流的方式重疊。

對于多GPU的情況,它使用 ring-based streaming機制,通過直接在GPU之間交換數(shù)據(jù)塊來避免主機內(nèi)存中的冗余數(shù)據(jù)移動。

與其他基于GPU的圖形引擎關(guān)注的傳統(tǒng)圖形處理場景不同,在GNN場景中,可變頂點數(shù)據(jù)本身可能無法容納到GPU設(shè)備內(nèi)存中,因為每個頂點的數(shù)據(jù)可以是特征向量( feature vector)而不是簡單的標(biāo)量(scalar)。因此,我們的方案更傾向于在每個頂點數(shù)據(jù)訪問中利用并行性,從而提高內(nèi)存訪問效率。

我們通過使用vertex-program abstraction和圖形傳播過程的自定義運算符擴展TensorFlow,從而實現(xiàn)NGra。

我們利用單個服務(wù)器的主機內(nèi)存和GPU的計算能力,證明NGra可以擴展以支持大型圖形的各種GNN算法,其中許多是現(xiàn)有深度學(xué)習(xí)框架無法直接實現(xiàn)的。

與小型graph上的TensorFlow相比,它可以支持GPU,NGra可以獲得最多4倍的加速。我們還廣泛評估了NGra的多重優(yōu)化所帶來的改進,以證明其有效性。

接下來的部分將描述SAGA-NN編程抽象,NGra系統(tǒng)的組件,以及NGra的實現(xiàn)和評估。

NGra程序抽象

基于圖(graph)的神經(jīng)網(wǎng)絡(luò)(GNN)是根據(jù)圖形結(jié)構(gòu)定義的一類通用神經(jīng)網(wǎng)絡(luò)架構(gòu)。

圖中的每個頂點或邊可以與張量數(shù)據(jù)(通常是vector)相關(guān)聯(lián),作為其特征或嵌入。GNN可以堆疊在多個層中,迭代傳播過程在同一個圖上逐層進行。

在圖的每個層中,頂點或邊緣要素沿邊緣變換和傳播,并在目標(biāo)頂點聚合,以生成下一層的新要素。轉(zhuǎn)換可以是任意的DNN計算。

圖還可以包含每個頂點,每個邊緣或整個圖形的標(biāo)簽,用于計算頂層的損失函數(shù)。然后從底層到頂層執(zhí)行前饋計算(feedforward computation)和反向傳播。

圖1描述了一個2層的GNN的前饋計算。

圖1

我們使用Gated Graph ConvNet(G-GCN)算法作為一個具體示例。 Graph ConvNet概括了卷積運算的概念,通常應(yīng)用于圖像數(shù)據(jù)集,用于處理任意圖形(例如knowledge graph)。Gated Graph ConvNet進一步結(jié)合了門控機制,因此模型可以了解哪些邊對學(xué)習(xí)目標(biāo)更重要。

G-GCN每一層的前饋計算如圖2所示:

圖2:SAGA-NN模型中,Gated Graph ConvNet的layer,其中?指矩陣乘法。

NGra系統(tǒng)的組成

NGra提供dataflow和vertex program abstractions的組合作為用戶界面。

NGra主要包括:

一個前端,它將SAGA-NN模型中實現(xiàn)的算法轉(zhuǎn)換為塊粒度數(shù)據(jù)流圖(chunk-granularity dataflow graph),使GPU中大型圖的GNN計算成為可能;

一個優(yōu)化層,它產(chǎn)生用于最小化主機和GPU設(shè)備存儲器之間的數(shù)據(jù)移動的調(diào)度策略,并識別融合操作和刪除冗余計算;

一組有效的傳播操作內(nèi)核,支持基于流的處理,以將GPU中的數(shù)據(jù)移動和計算重疊;

dataflow execution runtime。NGra主要利用現(xiàn)有的基于數(shù)據(jù)流的深度學(xué)習(xí)框架來處理dataflow execution runtime。

圖3:SAGA-NN Stages for each layer of GN

NGra的優(yōu)化

圖4描述了ApplyEdge階段中矩陣乘法運算:

圖4

圖5顯示了優(yōu)化的dataflow graph,其中矩陣乘法移入ApplyVertex stage:

圖7是多GPU的架構(gòu)

圖7:多GPU架構(gòu)

NGra的評估

我們在TensorFlow (v1.7) 上實現(xiàn)NGra,使用大約2,900行C++代碼和3000行Python代碼。NGra通過前端擴展TensorFlow,將SAGA-NN程序轉(zhuǎn)換為chunk-granularity dataflow graph,幾個scatter/gather 運算符,以實現(xiàn)高效的圖傳播,以及ring-based的流調(diào)度方案。

以下是評估結(jié)果。評估證明了NGra的高效和可擴展性,以及與state-of-the-art的系統(tǒng)TensorFlow的比較。

表1:數(shù)據(jù)集 (K: thousand, M: million)

圖13:TensorFlow(TF),cuSPARSE和NGra(NG) 在不同密度graphs上的傳播內(nèi)核時間

表2:與TensorFlow的迭代時間比較(ms)

圖14:不同應(yīng)用程序的Streaming scheduling策略比較。(Data: reddit middle)

圖15:NGra在不同應(yīng)用程序的擴展性能

圖16:在大型圖上使用不同應(yīng)用程序加速NGra

結(jié)論

GNN代表了一種新興的計算模型,這自然地產(chǎn)生了對在大型graph上應(yīng)用神經(jīng)網(wǎng)絡(luò)模型的需求。由于GNN訓(xùn)練固有的復(fù)雜性,支持高效的、可擴展的并行計算是很困難的。

NGra是第一個支持GNN的并行處理框架,它使用新的編程抽象,然后將其映射和優(yōu)化為數(shù)據(jù)流,進而在GPU上高效執(zhí)行。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6641

    瀏覽量

    104666
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4787

    瀏覽量

    101372
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5523

    瀏覽量

    121714

原文標(biāo)題:北大、微軟亞洲研究院:高效的大規(guī)模圖神經(jīng)網(wǎng)絡(luò)計算

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供強大的
    的頭像 發(fā)表于 11-15 15:20 ?361次閱讀

    如何編寫BP神經(jīng)網(wǎng)絡(luò)

    傳播過程,即誤差從輸出層反向傳播回輸入層,并據(jù)此調(diào)整網(wǎng)絡(luò)參數(shù)。本文將詳細闡述如何編寫BP神經(jīng)網(wǎng)絡(luò),包括網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計、前向傳播、損失函數(shù)計
    的頭像 發(fā)表于 07-11 16:44 ?705次閱讀

    神經(jīng)網(wǎng)絡(luò)辨識模型具有什么特點

    神經(jīng)網(wǎng)絡(luò)辨識模型是種基于人工神經(jīng)網(wǎng)絡(luò)的系統(tǒng)辨識方法,它具有以下特點: 非線性映射能力 :神經(jīng)網(wǎng)絡(luò)能夠處理非線性問題,可以很好地擬合復(fù)雜的非
    的頭像 發(fā)表于 07-11 11:12 ?573次閱讀

    怎么對神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)復(fù)雜的過程,涉及到多個步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)種強大的機器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、自然語言
    的頭像 發(fā)表于 07-11 10:25 ?561次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型嗎

    當(dāng)然,PyTorch是廣泛使用的深度學(xué)習(xí)框架,它提供許多預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型。 PyTorch中的
    的頭像 發(fā)表于 07-11 09:59 ?921次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中基礎(chǔ)且
    的頭像 發(fā)表于 07-10 15:20 ?1443次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能
    的頭像 發(fā)表于 07-05 09:52 ?704次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    Network)相比,RNN能夠處理時間序列數(shù)據(jù),例如文本、音頻、視頻等。 RNN的基本概念 1.1 什么是RNN RNN是種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),其核心思想是將前一個時間步的輸
    的頭像 發(fā)表于 07-05 09:49 ?838次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)樣嗎

    神經(jīng)網(wǎng)絡(luò)種基于樹結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它通過遞歸地將輸入數(shù)據(jù)分解為更小的子問題來處理序列數(shù)據(jù)。RvNN的核心思想是將復(fù)雜的序列問題
    的頭像 發(fā)表于 07-05 09:28 ?1068次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    。 遞歸神經(jīng)網(wǎng)絡(luò)的概念 遞歸神經(jīng)網(wǎng)絡(luò)種具有短期記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),如時間序列、文本、語音等。與傳統(tǒng)的前饋
    的頭像 發(fā)表于 07-04 14:54 ?965次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    結(jié)構(gòu)。它們在處理不同類型的數(shù)據(jù)和解決不同問題時具有各自的優(yōu)勢和特點。本文將從多個方面比較循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別。 基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1569次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片區(qū)別

    處理神經(jīng)網(wǎng)絡(luò)算法的芯片。它通過模擬人腦神經(jīng)元的工作方式,實現(xiàn)對大量數(shù)據(jù)的并行處理和快速學(xué)習(xí)。
    的頭像 發(fā)表于 07-04 09:30 ?1463次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在些問題,如容易陷入局部最優(yōu)解、訓(xùn)練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們
    的頭像 發(fā)表于 07-03 11:00 ?902次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對心電降噪

    進行訓(xùn)練。我們還研究使用合成數(shù)據(jù) 集如何影響網(wǎng)絡(luò)性能。 我們建議使用深度循環(huán)去噪神經(jīng)網(wǎng)絡(luò)(DRDNN) 對心電信號進行去噪。它們是種深
    發(fā)表于 05-15 14:42

    助聽器降噪神經(jīng)網(wǎng)絡(luò)模型

    抑制任務(wù)是語音增強領(lǐng)域的重要學(xué)科, 隨著深度神經(jīng)網(wǎng)絡(luò)的興起,提出了幾種基于深度模型的音頻處理新方法[1,2,3,4]。然而,這些通常是為離線處理
    發(fā)表于 05-11 17:15
    主站蜘蛛池模板: 高h肉肉视频在线播放观看 高黄视频 | 99热一区 | 黄色录像三级 | 性欧美精品xxxx | 亚洲第一视频在线播放 | 最近观看免费高清视频 | 天堂在线观看中文字幕 | 午夜三级网站 | 色婷婷丁香 | 欧美一区二区三区四区在线观看 | 日木69xxxhd| 在线激情网址 | 天天摸天天看天天做天天爽 | 黑色丝袜美女被网站 | 亚洲国产色婷婷精品综合在线观看 | 免费深夜视频 | 国产网站免费观看 | 天堂资源在线中文 | 琪琪午夜免费影院在线观看 | 男女做视频网站免费观看 | 欧美精品xx| 欧美一级在线观看播放 | h国产 | 国内一级特黄女人精品毛片 | 中文字幕在线看精品乱码 | 天天天狠天天透天天制色 | 一级特黄aaa大片在线观看 | 色婷婷视频 | 国产精品久久久久网站 | 一级美女视频 | 中文字幕第十页 | 天天摸天天碰色综合网 | 日韩一级免费视频 | 免费看污视频软件 | 欧美高清一区二区 | 中文字幕一区二区三区乱码aⅴ | 亚洲插插插 | 草馏社区 | www.午夜视频 | aaa在线| 台湾香港澳门三级在线 |