在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Stable Diffusion采樣速度翻倍!僅需10到25步的擴(kuò)散模型采樣算法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 作者:智能感知與物聯(lián)網(wǎng) ? 2022-11-21 11:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

清華大學(xué)計(jì)算機(jī)系朱軍教授帶領(lǐng)的 TSAIL 團(tuán)隊(duì)提出 DPM-Solver(NeurIPS 2022 Oral,約前 1.7%)和 DPM-Solver++,將擴(kuò)散模型的快速采樣算法提升到了極致:無(wú)需額外訓(xùn)練,僅需 10 到 25 步就可以獲得極高質(zhì)量的采樣。

要說(shuō) AI 領(lǐng)域今年影響力最大的進(jìn)展,爆火的 AI 作圖絕對(duì)是其中之一。設(shè)計(jì)者只需要輸入對(duì)圖片的文字描述,就可以由 AI 生成一張質(zhì)量極高的高分辨率圖片。目前,使用范圍最廣的當(dāng)屬 StabilityAI 的開源模型 Stable Diffusion,模型一經(jīng)開源就在社區(qū)引起了廣泛的討論。

然而,擴(kuò)散模型在使用上最大的問(wèn)題就是其極慢的采樣速度。模型采樣需要從純?cè)肼晥D片出發(fā),一步一步不斷地去噪,最終得到清晰的圖片。在這個(gè)過(guò)程中,模型必須串行地計(jì)算至少 50 到 100 步才可以獲得較高質(zhì)量的圖片,這導(dǎo)致生成一張圖片需要的時(shí)間是其它深度生成模型的 50 到 100 倍,極大地限制了模型的部署和落地。

為了加速擴(kuò)散模型的采樣,許多研究者從硬件優(yōu)化的角度出發(fā),例如 Google 使用 JAX 語(yǔ)言將模型編譯運(yùn)行在 TPU 上,OneFlow 團(tuán)隊(duì) [1] 使用自研編譯器將 Stable Diffusion 做到了“一秒出圖”。這些方法都基于 50 步的采樣算法 PNDM[2],該算法在步數(shù)減少時(shí)采樣效果會(huì)急劇下降。

就在幾天前,這一紀(jì)錄又被刷新了!Stable Diffusion 的官方 Demo[3]更新顯示,采樣 8 張圖片的時(shí)間從原來(lái)的 8 秒鐘直接被縮短至了 4 秒鐘!快了整整一倍!

9575e1e4-68e0-11ed-8abf-dac502259ad0.png

而基于自研深度學(xué)習(xí)編譯器技術(shù)的 OneFlow 團(tuán)隊(duì)更是在不降低采樣效果的前提下,成功將之前的 “一秒出圖” 縮短到了 “半秒出圖”!在 GPU 上僅僅使用不到 0.5 秒就可以獲得一張高清的圖片!相關(guān)工作已經(jīng)發(fā)布在[1] 中。

事實(shí)上,這些工作的核心驅(qū)動(dòng)力都來(lái)自于清華大學(xué)朱軍教授帶領(lǐng)的 TSAIL 團(tuán)隊(duì)所提出的DPM-Solver,一種針對(duì)于擴(kuò)散模型特殊設(shè)計(jì)的高效求解器:該算法無(wú)需任何額外訓(xùn)練,同時(shí)適用于離散時(shí)間與連續(xù)時(shí)間的擴(kuò)散模型,可以在 20 到 25 步內(nèi)幾乎收斂,并且只用 10 到 15 步也能獲得非常高質(zhì)量的采樣。在 Stable Diffusion 上,25 步的 DPM-Solver 就可以獲得優(yōu)于 50 步 PNDM 的采樣質(zhì)量,因此采樣速度直接翻倍!

項(xiàng)目鏈接:

DPM-Solver: A Fast ODE Solver for Diffusion Probabilistic Model Sampling in Around 10 Steps:https://arxiv.org/abs/2206.00927(NeurIPS 2022 Oral)

DPM-Solver++: Fast Solver for Guided Sampling of Diffusion Probabilistic Models:https://arxiv.org/abs/2211.01095

項(xiàng)目開源代碼:https://github.com/LuChengTHU/dpm-solver

項(xiàng)目在線 Demo:https://huggingface.co/spaces/LuChengTHU/dpmsolver_sdm

擴(kuò)散模型的定義與采樣方法

擴(kuò)散模型通過(guò)定義一個(gè)不斷加噪聲的前向過(guò)程來(lái)將圖片逐步變?yōu)楦咚乖肼暎偻ㄟ^(guò)定義了一個(gè)逆向過(guò)程將高斯噪聲逐步去噪變?yōu)榍逦鷪D片以得到采樣:

9596931c-68e0-11ed-8abf-dac502259ad0.png

在采樣過(guò)程中,根據(jù)是否添加額外的噪聲,可以將擴(kuò)散模型分為兩類:一類是擴(kuò)散隨機(jī)微分方程模型(Diffusion SDE),另一類是擴(kuò)散常微分方程(Diffusion ODE)。兩種模型的訓(xùn)練目標(biāo)函數(shù)都一樣,通過(guò)最小化與噪聲的均方誤差來(lái)訓(xùn)練一個(gè)“噪聲預(yù)測(cè)網(wǎng)絡(luò)”:

95a8fab6-68e0-11ed-8abf-dac502259ad0.png

基于 Diffusion SDE 的采樣過(guò)程可以視為離散化如下隨機(jī)微分方程:

95bb02c4-68e0-11ed-8abf-dac502259ad0.png

并且 [4] 中證明,DDPM[5] 是對(duì)上述 SDE 的一階離散化。

而基于 Diffusion ODE 的采樣過(guò)程可以視為離散化如下常微分方程:

95cb322a-68e0-11ed-8abf-dac502259ad0.png

并且 [6] 中證明,DDIM[7]是對(duì)上述 ODE 的一階離散化。

然而,這些一階的離散化方法收斂速度極慢,擴(kuò)散模型的采樣通常需要 100 到 1000 次串行計(jì)算才可以得到高質(zhì)量的圖片。通常情況下,為了加速擴(kuò)散模型的采樣,研究者往往通過(guò)對(duì) Diffusion ODE 使用高階求解器來(lái)進(jìn)行加速,例如經(jīng)典的 Runge-Kutta 方法(RK45),這是因?yàn)?ODE 不會(huì)帶來(lái)額外的隨機(jī)性,離散化步長(zhǎng)可以相對(duì)選取得更大一些。在給定 s 時(shí)刻的解后,Runge-Kutta 方法基于離散化如下積分:

95dadee6-68e0-11ed-8abf-dac502259ad0.png

這樣的離散化將 Diffusion ODE 整體看做一個(gè)黑盒,損失了 ODE 的已知信息,在小于 50 步的情況下就難以收斂了。

DPM-Solver:專為擴(kuò)散模型設(shè)計(jì)的求解器

DPM-Solver 基于 Diffusion ODE 的半線性(semi-linear)結(jié)構(gòu),通過(guò)精確且解析地計(jì)算 ODE 中的線性項(xiàng),我們可以得到:

95ec8fec-68e0-11ed-8abf-dac502259ad0.png

剩余的積分項(xiàng)是一個(gè)關(guān)于時(shí)間的復(fù)雜的積分。然而,DPM-Solver 的提出者發(fā)現(xiàn),該積分可以通過(guò)對(duì) log-SNR(對(duì)數(shù)信噪比)做換元后得到一個(gè)非常簡(jiǎn)單的形式:

96082ec8-68e0-11ed-8abf-dac502259ad0.png

剩余的積分是一個(gè)關(guān)于噪聲預(yù)測(cè)模型的指數(shù)積分(exponentially weighted integral)。通過(guò)對(duì)噪聲預(yù)測(cè)模型做泰勒展開,我們可以得到該積分的一個(gè)估計(jì):

9619a540-68e0-11ed-8abf-dac502259ad0.png

該估計(jì)中存在兩項(xiàng):一項(xiàng)是全導(dǎo)數(shù)部分(向量),另一項(xiàng)是系數(shù)部分(標(biāo)量)。DPM-Solver 的另一個(gè)核心貢獻(xiàn)是,該系數(shù)可以通過(guò)分部積分被解析地計(jì)算:

962ae364-68e0-11ed-8abf-dac502259ad0.png

而剩余的全導(dǎo)數(shù)部分則可以通過(guò)傳統(tǒng) ODE 求解器的數(shù)值方法來(lái)近似估計(jì)(無(wú)需任何求導(dǎo)運(yùn)算):

9661a340-68e0-11ed-8abf-dac502259ad0.png

基于以上 4 點(diǎn),DPM-Solver 做到了盡可能地準(zhǔn)確計(jì)算所有已知項(xiàng),只對(duì)神經(jīng)網(wǎng)絡(luò)部分做近似,因此最大程度地減小了離散化誤差:

966eb1d4-68e0-11ed-8abf-dac502259ad0.png

此外,基于該推導(dǎo),我們可以得到 DDIM 本質(zhì)上是 DPM-Solver 的一階形式,這也能解釋為什么 DDIM 在步數(shù)較少時(shí)依然可以獲得很好的加速效果:

967fe9fe-68e0-11ed-8abf-dac502259ad0.png

在實(shí)驗(yàn)中,DPM-Solver 獲得了遠(yuǎn)超其它采樣算法的加速效果,僅僅在 15-20 步就幾乎可以收斂:

96956df6-68e0-11ed-8abf-dac502259ad0.png

并且在論文中定量的結(jié)果顯示,DPM-Solver 引入的額外計(jì)算量完全可以忽略,即對(duì)于步數(shù)的加速效果直接正比于時(shí)間上的加速效果——因此,基于 25 步的 DPM-Solver,Stable-Diffusion 模型的采樣速度直接翻倍!例如,下圖展示了不同采樣算法在 Stable-Diffusion 上隨著步數(shù)變化的效果,可見(jiàn) DPM-Solver 在 10 到 15 步就可以獲得非常高質(zhì)量的采樣:

96afc732-68e0-11ed-8abf-dac502259ad0.png

使用 DPM-Solver

DPM-Solver 的使用非常簡(jiǎn)單,既可以基于作者提供的官方代碼,也可以使用主流的 Diffusers 庫(kù)。例如,基于作者提供的官方代碼(https://github.com/LuChengTHU/dpm-solver),只需要 3 行:

96c72aee-68e0-11ed-8abf-dac502259ad0.png

官方代碼對(duì) 4 種擴(kuò)散模型都進(jìn)行了支持:

96d330fa-68e0-11ed-8abf-dac502259ad0.png

并且同時(shí)支持 unconditional sampling、classifier guidance 和 classifier-free guidance:

96e60f0e-68e0-11ed-8abf-dac502259ad0.png

而基于 Diffusers 庫(kù)的 DPM-Solver 同樣很簡(jiǎn)單,只需要定義 scheduler 即可:

96f3548e-68e0-11ed-8abf-dac502259ad0.png

此外,作者團(tuán)隊(duì)還提供了一個(gè)在線 Demo:https://huggingface.co/spaces/LuChengTHU/dpmsolver_sdm

下圖是 15 步的例子,可以看到圖像質(zhì)量已經(jīng)非常高:

9703f2a8-68e0-11ed-8abf-dac502259ad0.png

相信基于 DPM-Solver,擴(kuò)散模型的采樣速度將不再是瓶頸。

關(guān)于作者

DPM-Solver 論文一作是來(lái)自清華大學(xué) TSAIL 團(tuán)隊(duì)的路橙博士,他在知乎上關(guān)于擴(kuò)散模型的討論中也寫了一篇關(guān)于擴(kuò)散模型原理的入門介紹,目前已有 2000 + 贊:https://www.zhihu.com/question/536012286/answer/2533146567

清華大學(xué) TSAIL 團(tuán)隊(duì)長(zhǎng)期致力于貝葉斯機(jī)器學(xué)習(xí)的理論和算法研究,是國(guó)際上最早研究深度概率生成模型的團(tuán)隊(duì)之一,在貝葉斯模型、高效算法和概率編程庫(kù)方面取得了系統(tǒng)深入的研究成果。團(tuán)隊(duì)另一位博士生鮑凡提出Analytic-DPM [8][9],為擴(kuò)散模型的最優(yōu)均值和方差給出了簡(jiǎn)單、令人吃驚的解析形式,獲得 ICLR 2022 Outstanding Paper Award。在概率編程方面,機(jī)器之心早在 2017 年就報(bào)道了該團(tuán)隊(duì)發(fā)布的 “ZhuSuan” 深度概率編程庫(kù)(https://zhusuan.readthedocs.io/en/latest/)[10],是國(guó)際上最早的面向深度概率模型的編程庫(kù)之一。另外,值得一提的是,擴(kuò)散概率模型的兩位核心作者宋飏和宋佳銘,本科時(shí)均在朱軍教授的指導(dǎo)下做科研訓(xùn)練,后來(lái)都去了斯坦福大學(xué)讀博士。論文的合作者周聿浩、陳鍵飛、李崇軒,也是TSAIL組培養(yǎng)的優(yōu)秀博士生,周聿浩為在讀,陳鍵飛和李崇軒分別在清華大學(xué)計(jì)算機(jī)系、人民大學(xué)高瓴人工智能學(xué)院任教。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4705

    瀏覽量

    95094
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3504

    瀏覽量

    50208
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5557

    瀏覽量

    122658

原文標(biāo)題:Stable Diffusion采樣速度翻倍!僅需10到25步的擴(kuò)散模型采樣算法

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    記憶示波器的采樣率應(yīng)如何選擇

    更高采樣率(如10倍以上)以捕捉快速上升沿和細(xì)節(jié)。 高頻噪聲或毛刺:更高采樣率(如20倍以上)以避免遺漏。 二、結(jié)合測(cè)量需求調(diào)整
    發(fā)表于 04-10 14:46

    ?Diffusion生成式動(dòng)作引擎技術(shù)解析

    Diffusion生成式動(dòng)作引擎 Diffusion生成式動(dòng)作引擎是一種基于擴(kuò)散模型Diffusion Models)的生成式人工智能技術(shù)
    的頭像 發(fā)表于 03-17 15:14 ?1683次閱讀

    DiffusionDrive首次在端端自動(dòng)駕駛中引入擴(kuò)散模型

    多樣性是提升自動(dòng)駕駛魯棒性和安全性的關(guān)鍵,但現(xiàn)有方法往往受限于單一軌跡回歸或固定錨點(diǎn)采樣,難以全面建模駕駛決策空間。 擴(kuò)散模型 (Diffusion Model) 憑借強(qiáng)大的多模態(tài)建模
    的頭像 發(fā)表于 03-08 13:59 ?799次閱讀
    DiffusionDrive首次在端<b class='flag-5'>到</b>端自動(dòng)駕駛中引入<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>

    安裝OpenVINO?工具包穩(wěn)定擴(kuò)散后報(bào)錯(cuò),怎么解決?

    :\\stable-openvino2\\stable-diffusion-webui-master\\venv\\lib\\site-packages\\diffusers\\models
    發(fā)表于 03-05 06:56

    AFE4400將占空設(shè)置為25%以下時(shí),采樣率該如何計(jì)算?

    1、 術(shù)手冊(cè)中有關(guān)ADC采樣頻率的說(shuō)明,在第10頁(yè)中說(shuō)采樣率為4*PRF 而在第40頁(yè)中關(guān)于ADC Data的中可以采樣率為16*PRF 但是如果我將占空設(shè)置為
    發(fā)表于 12-31 07:18

    AMC1304M25采樣電機(jī)相電流時(shí)候的采樣電阻如何計(jì)算?

    電機(jī)一般啟動(dòng)電流會(huì)比額定電流大4~7倍,那選取相電流采樣電阻的時(shí)候應(yīng)該得按照“AMC1304M25量程(250mv)/啟動(dòng)電流”來(lái)計(jì)算采樣電阻吧。如果按照額定電流來(lái)選取采樣電阻那開機(jī)
    發(fā)表于 12-27 08:04

    關(guān)于ADS1299采樣速度的疑問(wèn)求解答

    在ADS1299的datasheet上面,關(guān)于采樣速度的說(shuō)明是:250sps~16Ksps。現(xiàn)在想問(wèn)一個(gè)問(wèn)題。16Ksps的采樣速度,是單個(gè)通道采集是能達(dá)到16ksps的
    發(fā)表于 12-13 07:01

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?511次閱讀
    如何開啟<b class='flag-5'>Stable</b> <b class='flag-5'>Diffusion</b> WebUI<b class='flag-5'>模型</b>推理部署

    浙大、微信提出精確反演采樣器新范式,徹底解決擴(kuò)散模型反演問(wèn)題

    。當(dāng)前的采樣器不能兼顧反演的準(zhǔn)確性和采樣的質(zhì)量。 為徹底解決這一問(wèn)題,微信視覺(jué)團(tuán)隊(duì)與浙江大學(xué)和清華大學(xué)聯(lián)手提出了基于雙向顯式線性多步法的擴(kuò)散模型精確反演
    的頭像 發(fā)表于 11-27 09:21 ?654次閱讀
    浙大、微信提出精確反演<b class='flag-5'>采樣</b>器新范式,徹底解決<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>反演問(wèn)題

    電流采樣與運(yùn)放電路分享

    1.電流采樣方案 1.1.不同數(shù)量的采樣電阻方案 電流采樣是FOC中基礎(chǔ)且重要的一個(gè)步驟,只有電流采樣準(zhǔn)確了整個(gè)算法才能獲得好的效果。電流
    的頭像 發(fā)表于 11-19 09:31 ?2741次閱讀

    STM32的ADC采樣及各式濾波算法實(shí)現(xiàn)

    本文為手把手教學(xué)ADC采樣及各式濾波算法的教程,本教程的MCU采用STM32F103ZET6。以HAL庫(kù)的ADC采樣函數(shù)為基礎(chǔ)進(jìn)行教學(xué),通過(guò)各式常見(jiàn)濾波的實(shí)驗(yàn)結(jié)果進(jìn)行分析對(duì)比,搭配VOFA+工具直觀的展示濾波效果。
    的頭像 發(fā)表于 10-28 10:51 ?7495次閱讀
    STM32的ADC<b class='flag-5'>采樣</b>及各式濾波<b class='flag-5'>算法</b>實(shí)現(xiàn)

    高邊電流采樣與低變電流采樣區(qū)別

    高邊電流采樣與低邊電流采樣是電流檢測(cè)中的兩種基本方式,它們?cè)陔娐方Y(jié)構(gòu)、應(yīng)用場(chǎng)景、性能特點(diǎn)等方面存在顯著差異。 一、電路結(jié)構(gòu)差異 高邊電流采樣 定義 :高邊電流采樣指的是
    的頭像 發(fā)表于 10-14 17:46 ?4034次閱讀

    電流采樣電阻的采樣原理

    電流采樣電阻的采樣原理主要基于歐姆定律,即電阻上的電壓降與通過(guò)該電阻的電流成正比,其關(guān)系可以表示為V=I*R,其中V是電阻兩端的電壓,I是通過(guò)電阻的電流,R是電阻的阻值。以下是電流采樣電阻采樣
    的頭像 發(fā)表于 08-27 10:03 ?2828次閱讀

    聲發(fā)射系統(tǒng)的技術(shù)指標(biāo):最高采樣速度的選擇

    采樣速度10兆則高5倍,都會(huì)給硬件軟件還有體積帶來(lái)很多倍的增加。如果采樣速度無(wú)限,增加的數(shù)
    的頭像 發(fā)表于 08-26 17:30 ?721次閱讀
    聲發(fā)射系統(tǒng)的技術(shù)指標(biāo):最高<b class='flag-5'>采樣</b><b class='flag-5'>速度</b>的選擇

    信號(hào)采樣算法原理是什么

    信號(hào)采樣是一種將連續(xù)信號(hào)轉(zhuǎn)換為離散信號(hào)的過(guò)程,它是數(shù)字信號(hào)處理的基礎(chǔ)。本文將詳細(xì)介紹信號(hào)采樣算法原理,包括采樣過(guò)程、采樣定理、
    的頭像 發(fā)表于 07-15 14:20 ?2088次閱讀
    主站蜘蛛池模板: 国产免费成人在线视频 | 天天狠狠弄夜夜狠狠躁·太爽了 | 午夜啪视频| 在线色片| 欧美日本免费 | 亚洲国产网 | 色网站观看| 日本片免费观看一区二区 | 日本精品一卡二卡≡卡四卡 | 欧美 亚洲 国产 精品有声 | 美女网站色视频 | 1024手机在线观看视频 | 欧美最猛性xxxx高清 | 欧美激情综合色综合啪啪五月 | 精品一区二区三区三区 | 日本口工全彩无遮拦漫画大 | 日本三级网站在线线观看 | 国产日韩精品一区二区在线观看 | 十三以下岁女子毛片免费播放 | 免费人成网站 | 日韩在线视频一区二区三区 | h免费视频| 免费拍拍视频 | 国产精品人成在线播放新网站 | 欧美午夜视频一区二区三区 | 亚洲性色成人 | videsgratis欧美另类 | xxxx69日本hd | 妖精视频一区二区三区 | 热99视频| 国产一区二区三区欧美精品 | 奇米狠狠操 | 亚洲欧美一区二区三区图片 | www.av在线.com | 欧美不卡视频在线观看 | 五月婷婷丁香在线视频 | 久久伊人操 | 色成年激情久久综合 | 免费视频不卡一区二区三区 | 亚洲激情 | 日本最顶级丰满的aⅴ艳星 日本最好的免费影院 |