在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌大腦提出了一種簡單的方法,用于將概率編程嵌入到深度學習生態(tài)系統(tǒng)

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-14 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌大腦最新提出了一種簡單的方法,用于將概率編程嵌入到深度學習生態(tài)系統(tǒng)。這種簡單分布式、加速的概率編程,可以將概率程序擴展到512個TPUv2、1億+參數(shù)的模型。

將概率程序擴展到512個TPU、1億+參數(shù)的模型是什么概念?

谷歌大腦近日公開一篇論文“Simple, Distributed, and Accelerated Probabilistic Programming”,發(fā)表于NIPS 2018。論文描述了一種簡單、低級的方法,用于將概率編程嵌入到深度學習生態(tài)系統(tǒng)中。

該研究將概率編程提取為一種單一的抽象——隨機變量(random variable)。

在繼續(xù)介紹論文之前,讓我們先了解一下Edward,因為該研究是基于Edward2實現(xiàn)的。

Edward是哥倫比亞大學、谷歌大腦等在2017年提出的新深度概率編程語言,也是一個用于概率建模、推理和評估的Python 庫。Edward 融合了以下三個領域:貝葉斯統(tǒng)計學和機器學習、深度學習、概率編程。

研究人員在TensorFlow的輕量級實現(xiàn)證明該方法可支持多種應用:使用TPUv2的模型并行變分自動編碼器(VAE);使用TPUv2的數(shù)據(jù)并行自回歸模型Image Transformer;以及多GPUNo-U-Turn Sampler(NUTS)。

對于64x64 ImageNet上最先進的VAE和256x256 CelebA-HQ上最先進的Image Transformer,該方法實現(xiàn)了從1 TPU到256 TPU的最佳線性加速。對于NUTS,相對Stan的GPU加速達到100倍,相對PyMC3的加速達到37倍。

從可微編程到概率編程

深度學習的許多進展可以被解釋為模糊了模型和計算之間的界限。有人甚至提出一種新的“可微編程”(differentiable programming)范式,在這種范式中,其目標不僅僅是訓練一個模型,而是執(zhí)行一般的程序合成。

在這種觀點里,注意力(attention)和門控(gating)描述了布爾邏輯;跳過連接(skip connections)和條件計算描述了控制流;外部存儲訪問函數(shù)內(nèi)部范圍之外的元素。學習算法也越來越動態(tài):例如, learning to learn,神經(jīng)結(jié)構(gòu)搜索,以及層內(nèi)優(yōu)化等。

可微編程范式鼓勵人們考慮計算成本:不僅要考慮模型的統(tǒng)計特性,還必須考慮其計算、內(nèi)存和帶寬成本。這種理念使研究人員設計出深度學習系統(tǒng),這些系統(tǒng)運行在最前沿的現(xiàn)代硬件上。

相比之下,概率編程社區(qū)傾向于在模型和計算之間劃清界限:首先,將概率模型指定為程序;其次,執(zhí)行“推理查詢”來自動訓練給定數(shù)據(jù)的模型。

這種設計使得很難真正大規(guī)模地實現(xiàn)概率模型,因為訓練具有數(shù)十億參數(shù)的模型需要跨加速器地拆分模型計算和調(diào)度通信

在這篇論文中,我們描述了一種在深度學習生態(tài)系統(tǒng)中嵌入概率編程的簡單方法; 我們的實現(xiàn)基于TensorFlow和Python,名為Edward2。這種輕量級方法為靈活的建模提供了一種 low-level 的模式——深度學習者可以從使用概率原語進行靈活的原型設計中獲益,并且概率建模者可以從與數(shù)字生態(tài)系統(tǒng)更緊密的集成中獲益。

研究貢獻:

我們將概率編程的核心提煉為單個抽象——隨機變量(random variable)。

這種low-level的設計有兩個重要含義:

首先,它使研究具有靈活性:研究人員可以自由地操作模型計算,以進行訓練和測試。

其次,它可以使用加速器(例如TPU)來實現(xiàn)更大的模型:TPU需要專門的ops,以便在物理網(wǎng)絡拓撲中分配計算和內(nèi)存。

我們舉例說明了三種應用:使用TPUv2的模型并行變分自動編碼器(VAE);使用TPUv2的數(shù)據(jù)并行自回歸模型(Image Transformer);以及多GPU No-U-Turn Sampler (NUTS)。

對于64x64 ImageNet上最先進的VAE和256x256 CelebA-HQ上最先進的Image Transformer,我們的方法實現(xiàn)了從1 TPUv2到256 TPUv2的最佳線性加速。對于NUTS,GPU的加速比Stan快100倍,比PyMC3快37倍。

只需要隨機變量

Random Variables Are All You Need!

在這一節(jié),我們概述了Edward2的概率程序。它們只需要一個抽象:一個隨機變量。然后,我們將描述如何使用跟蹤(tracing)來執(zhí)行靈活的、low-level 的操作。

概率程序、變分程序

Edward2將任何可計算的概率分布具體化為一個Python函數(shù)(程序)。通常,該函數(shù)執(zhí)行生成過程,并返回示例。程序的輸入—以及任何限定范圍的Python變量—表示分布條件的值。

要在程序中指定隨機選擇,我們使用了Edward的RandomVariables。RandomVariables提供了log_prob和sample等方法,包裝TensorFlow Distributions。此外,Edward隨機變量增加了TensorFlow操作的計算圖:每個隨機變量x與圖中的張量x?~p(x)相關聯(lián)。

圖1描述了一個示例:一個Beta-Bernoulli模型

圖1:Beta-Bernoulli program

重要的是,所有的分布——不管下游用什么——都是作為概率程序編寫的。

圖2描述了一個隱式變分程序,即允許采樣但可能不具有易于處理的密度的變分分布。

圖2:Variational program

一般而言,變分程序、proposal programs和對抗式訓練中的discriminators都是可計算的概率分布。如果我們有一個操縱這些概率程序的機制,那么就不需要引入任何額外的抽象來支持強大的推理范例。

下面我們將使用一個model-parallel VAE來展示這種靈活性。

示例:模型并行的變分自動編碼器

圖4實現(xiàn)了一個模型并行的變分自動編碼器(model-parallel VAE),它由decoder、prior和encoder組成。decoder生成16位音頻;它采用一種自回歸的flow,用于訓練有效地在序列長度上并行化。encoder將每個樣本壓縮成粗分辨率,由一個壓縮函數(shù)參數(shù)化。

圖4:Model-parallel VAE with TPUs, generating 16-bit audio from 8-bit latents

TPU集群在環(huán)形網(wǎng)絡中布置核心,例如,512個核心可以布置為16x16x2的環(huán)面互連。為了利用集群, prior和decoder都應用分布式自回歸流(如圖3所示)。

圖3:Distributed autoregressive flows

概率程序很簡潔。它們利用了最近的進展,如autoregressive flows和multi-scale latent variables,并且實現(xiàn)了以前從未嘗試過的架構(gòu),其中使用16x16 TPUv2芯片(512核心),模型可以在4.1TB內(nèi)存中分割,并使用最多1016個FLOPS。VAE的所有元素——分布式、架構(gòu)和計算位置——都是可擴展的。

跟蹤

我們將概率程序定義為任意Python函數(shù)。為了實現(xiàn)靈活的訓練,我們應用了跟蹤(tracing),這是概率編程的經(jīng)典技術,以及自動微分(automatic differentiation)。

圖5顯示了核心實現(xiàn):10行的代碼。

圖5:tracing的最小實現(xiàn)

圖6:程序執(zhí)行。

其他示例,包括數(shù)據(jù)并行Image Transformer,No-U-Turn Sampler,概率程序?qū)R,通過梯度下降的變分推理學習等,請閱讀原始論文。

結(jié)論

我們描述了一種簡單、低級別的方法,用于在深度學習生態(tài)系統(tǒng)中嵌入概率編程。對于64x64 ImageNet上的最先進的VAE和256x256 CelebA-HQ上的Image Transformer,我們實現(xiàn)了從1到256 TPUv2芯片的最佳線性加速。對于NUTS,相比其他系統(tǒng)速度提升100倍。

目前,我們正在推進這種設計,作為生成模型和貝葉斯神經(jīng)網(wǎng)絡基礎研究的一個階段。此外,我們的實驗依賴于數(shù)據(jù)并行性以得到大幅的加速加速。最近的一些研究改進了神經(jīng)網(wǎng)絡的分布式編程,用于模型并行性以及對大規(guī)模輸入(如超高分辨率圖像)的并行性。結(jié)合這項工作,我們希望突破超過1萬億參數(shù)和超過4K分辨率的巨型概率模型的極限。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3793

    瀏覽量

    137881
  • 生態(tài)系統(tǒng)

    關注

    0

    文章

    707

    瀏覽量

    21043
  • 深度學習
    +關注

    關注

    73

    文章

    5560

    瀏覽量

    122748

原文標題:NIPS 2018:谷歌大腦提出簡單、分布式概率編程,可用TPU大規(guī)模訓練

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    嵌入式技術:STM32Cube生態(tài)系統(tǒng)介紹#嵌入系統(tǒng)

    嵌入生態(tài)系統(tǒng)
    學習電子
    發(fā)布于 :2022年11月12日 23:59:12

    MCU產(chǎn)品、軟件、生態(tài)系統(tǒng)的演變及未來展望

    和環(huán)境、工程師開發(fā)方式、生態(tài)系統(tǒng)方面,都帶來了深刻的變化。甚至產(chǎn)品的名字也從早期的“單片機”,更多地使用“微控制器”或者“嵌入系統(tǒng)”這樣的術語(如表1)。我們下文更多以MCU或微控
    發(fā)表于 01-19 15:17

    大數(shù)據(jù)hadoop生態(tài)系統(tǒng)概念簡單介紹

    零基礎大數(shù)據(jù)入門3--大數(shù)據(jù)生態(tài)系統(tǒng)及其各組件簡介
    發(fā)表于 05-05 14:34

    工廠生產(chǎn)系統(tǒng)能效的生態(tài)系統(tǒng)優(yōu)化設計

    優(yōu)化工廠生產(chǎn)系統(tǒng)能效的生態(tài)系統(tǒng)
    發(fā)表于 07-12 08:44

    鴻蒙操作系統(tǒng)為何發(fā)展緩慢 生態(tài)系統(tǒng)構(gòu)建面臨難題

    件容易的事情,蘋果生態(tài)系統(tǒng)谷歌生態(tài)系統(tǒng)的構(gòu)建都是經(jīng)過長年累月才有今天的規(guī)模,目前蘋果生態(tài)系統(tǒng)谷歌生態(tài)
    發(fā)表于 09-07 11:54

    everspin生態(tài)系統(tǒng)和制造工藝創(chuàng)新解析

    everspin生態(tài)系統(tǒng)和制造工藝創(chuàng)新
    發(fā)表于 01-01 07:55

    STM32單片機基礎01——初識 STM32Cube 生態(tài)系統(tǒng) 精選資料分享

    本篇文章主要介紹STM32Cube生態(tài)系統(tǒng)。STM32Cube EcosystemSTM32Cube是ST公司開發(fā)的生態(tài)系統(tǒng),致力于使STM32的開發(fā)變的更簡單,并且100%開源免
    發(fā)表于 08-03 07:15

    STM32Cube生態(tài)系統(tǒng)更新

    前不久STM32Cube生態(tài)系統(tǒng)進行了次“大更新”,STM32CubeMX升級至V6.0.0,STM32CubeIDE升級至V1.4.0,STM32CubeProg升級至V2.5.0。...
    發(fā)表于 08-03 06:05

    Microchip FPGA 和基于 SoC 的 RISC-V 生態(tài)系統(tǒng)簡介

    和 460k LE 范圍內(nèi)的 PolarFire SoC 與競爭對手相比具有類似的優(yōu)勢。PolarFire SoC 是一種安全且節(jié)能的解決方案,適用于從人工智能 (AI) 和機器學習
    發(fā)表于 09-07 17:59

    什么是STM32Cube生態(tài)系統(tǒng)

    什么是STM32Cube生態(tài)系統(tǒng)
    發(fā)表于 09-29 06:12

    使用linux嵌入式構(gòu)建IoT生態(tài)系統(tǒng)組件

    linux嵌入式物聯(lián)網(wǎng) 您會發(fā)現(xiàn),構(gòu)建IoT生態(tài)系統(tǒng)組件的最快方法是使用嵌入式Linux,無論您是從開始就擴充現(xiàn)有設備還是設計新設備或
    發(fā)表于 11-04 08:47

    IT的生態(tài)系統(tǒng)概述

    、IT的生態(tài)系統(tǒng)概述1.1 計算機CPU四大體系結(jié)構(gòu)1、以PC機為代表的X86結(jié)構(gòu)2、以嵌入式計算機為代表的ARM結(jié)構(gòu)3、以國產(chǎn)龍芯為代表的MIPS結(jié)構(gòu)4、以IBM巨型機為代表的POWPC結(jié)構(gòu)
    發(fā)表于 12-22 06:47

    GaN功率半導體與高頻生態(tài)系統(tǒng)

    GaN功率半導體與高頻生態(tài)系統(tǒng)(氮化鎵)
    發(fā)表于 06-25 09:38

    基于深度學習算法的軟件生態(tài)系統(tǒng)

    ,這比較類似于人腦的運行方式,獲得更多數(shù)據(jù)后,準確度也會越來越高。TIDL(TI Deep Learning Library) 是TI平臺基于深度學習算法的軟件生態(tài)系統(tǒng),可以
    的頭像 發(fā)表于 06-30 17:01 ?2384次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>算法的軟件<b class='flag-5'>生態(tài)系統(tǒng)</b>

    谷歌智能家居生態(tài)系統(tǒng)設計

    谷歌Home是智能家居行業(yè)領先的物聯(lián)網(wǎng)生態(tài)系統(tǒng)用于控制智能家居設備相當簡單。該生態(tài)系統(tǒng)允許
    的頭像 發(fā)表于 08-22 15:15 ?2424次閱讀
    主站蜘蛛池模板: 第四色播日韩第一页 | 456成人免费高清视频 | 污污视频网址 | 直接看黄的网站 | 久久精品亚洲一级毛片 | 伊人狼人综合 | 国产黄在线观看 | 天天躁日日躁狠狠躁一级毛片 | 丁香六月激情网 | 女69女人poren25| 日韩国产片 | 国产经典三级 | 3344成年在线视频免费播放男男 | www.夜夜骑 | 天天射天天色天天干 | 69成人免费视频 | 国产人成午夜免费噼啪视频 | 色97色| 色视频免费 | 天天爽天天爱 | 搞逼综合网 | 92香蕉视频 | 三级三级三级网站网址 | 天天舔天天摸 | 91破处视频| 色天使久久综合网天天 | a站在线观看 | 欧美人与zoxxxx | 天天看天天射天天碰 | 最色网站 | 奇米9999| 亚洲 成人 欧美 自拍 | 午夜精品视频在线观看 | aaaaa国产毛片 | 丁香花成人另类小说 | 亚洲色图综合图片 | 国产欧美亚洲精品第二区首页 | 欧美色人阁 | 成年人激情视频 | 色婷婷亚洲综合五月 | 国产理论视频在线观看 |