在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

CLE Diffusion:可控光照增強擴散模型

CVer ? 來源:CVer公眾號 ? 2023-09-11 17:20 ? 次閱讀

本文介紹了由北交大、UT Austin、A*Star團隊提出的基于擴散模型的可控低光增強方法,論文被ACM MM 2023收錄。

6a480ee8-4ff3-11ee-a25d-92fbcf53809c.jpg

CLE Diffusion: Controllable Light Enhancement Diffusion Model 論文:arxiv.org/abs/2308.06725 代碼:github.com/YuyangYin/CLEDiffusion 主頁:yuyangyin.github.io/CLEDiffusion/ 在CVer微信公眾號后臺回復:CLE,可以下載本論文pdf Introduction

低光圖像增強技術近年來受到了廣泛的關注,目前的方法通常假設一個理想的增亮程度,對圖像整體進行均勻的增強,同時也限制了用戶的可控性。為了解決這個問題,本文提出了可控光照增強擴散模型(Controllable Light Enhancement Diffusion Model),可以讓用戶輸入所需的增亮級別,并利用SAM模型,來實現交互友好的區域可控增亮。如圖演示效果,用戶可以通過簡單的點擊來指定增亮的區域。

6a6f1196-4ff3-11ee-a25d-92fbcf53809c.jpg

Method

本文提出了新型的可控光照增強框架,主要采用了條件擴散模型來控制任意區域的任意亮度增強。通過亮度控制模塊(Brightness Control Module)將亮度信息信息融入Diffusion網絡中,并且設計了和任務適配的條件控制信息和損失函數來增強模型的能力。同時本文使用了Mask輸入和SAM模型(Segment-Anything Model)來進一步增強可控性,使得用戶可以通過簡單的點擊形式實現任意區域的增亮。整體的框架如下圖所示:

6a8b2c32-4ff3-11ee-a25d-92fbcf53809c.jpg

條件控制擴散模型

6aa04e8c-4ff3-11ee-a25d-92fbcf53809c.png

亮度控制板塊

為了高效的控制亮度信息,本文采用了classifier-free guidance(CFG)方法。CFG采用同時訓練條件擴散模型(conditional diffusion model)和無條件擴散模型(unconditional diffusion model)的方式來實現。在本任務中,將亮度值(brightness level)視作class label,由于亮度具有連續性,我們的class label也是連續的,可以實現更精細的亮度調節。對于條件擴散模型,本文通過計算normal-light image的平均亮度λ,然后通過orthogonal matrix將其在編碼成illumintion embedding。然后通過FiLM layer將其注入到UNet的feature map中。對于無條件擴散模型,本文將illumintion embedding的值設置為0。實驗中為了提升采樣速度,采用DDIM采樣的辦法,因此總體的算法流程可以總結為:

6abadf04-4ff3-11ee-a25d-92fbcf53809c.jpg

區域控制增亮

在實際增亮過程中,用戶相比于全局增亮圖片其實更加關注區域的亮度控制,本文采用了Mask-CLE Diffusion來解決這個問題。首先采樣了一批羽化邊緣的隨機mask,通過將normal-light image和mask混合得到了一個新的合成數據集。然后將mask信息拼接到擴散模型的輸入中,訓練得到新的增亮模型。SAM(Segment-Anything Model)可以實現任意圖片的分割。在SAM的幫助下,Mask-CLE Diffusion提供了更好的用戶交互體驗,可以讓用戶通過點擊的形式獲得指定區域的mask并進行增亮。

輔助損失函數

6acee706-4ff3-11ee-a25d-92fbcf53809c.png

Expriment

New Metric

目前的大部分指標通常假設理想的亮度值,但對于不同亮度的圖片質量比較困難。如下圖所示,PSNR和SSIM通常隨著亮度變化呈現V字形的變換,而LPIPS會呈現倒V型。因此本文希望提出一個新的指標,可以衡量不同亮度下的圖片質量。

6ae2bde4-4ff3-11ee-a25d-92fbcf53809c.jpg

本文發現可以用color map來對亮度進行歸一化,之后通過Canny邊緣提取算子來衡量細節信息,最后采用LPIPS函數來衡量高頻質量。新的指標可以命名為Light-IndependentLPIPS,表示為:

6b038aec-4ff3-11ee-a25d-92fbcf53809c.png

LOL和Mit-Adobe FiveK數據集上的表現

評測指標的比較:

6b14363a-4ff3-11ee-a25d-92fbcf53809c.jpg

LOL數據集上的可視化比較:

6b36cdf8-4ff3-11ee-a25d-92fbcf53809c.jpg

Mit-Adobe FiveK數據集上的可視化比較:

6b4a05da-4ff3-11ee-a25d-92fbcf53809c.jpg

區域亮度增強

給定用戶感興趣的區域,可以實現任意亮度的增強。對比于過往低光增強方法MAXIM(CVPR 2022 Oral),具有更強的可控性和增亮效果。

6a6f1196-4ff3-11ee-a25d-92fbcf53809c.jpg

6b7601d0-4ff3-11ee-a25d-92fbcf53809c.jpg

全局亮度增強

6ba11db6-4ff3-11ee-a25d-92fbcf53809c.png

6bd21f60-4ff3-11ee-a25d-92fbcf53809c.jpg

和其他亮度可控方法的比較

ReCoRo只能實現在low-light到well-light之間的亮度增強,而CLE Diffusion有更廣的編輯空間。

6bee322c-4ff3-11ee-a25d-92fbcf53809c.jpg

在VE-LOL數據集上的比較

6c0cf96e-4ff3-11ee-a25d-92fbcf53809c.jpg

在正常光照數據集上的比較

6c2790da-4ff3-11ee-a25d-92fbcf53809c.jpg

在分割模型上的表現

6c3d2a3a-4ff3-11ee-a25d-92fbcf53809c.jpg

總結

CLE Diffusion提出了一種新型的擴散模型框架來實現可控的光照增強。方法主要將亮度信息編碼,利用條件擴散模型來實現可控的亮度增強。并且借助SAM模型,讓用戶可以選擇感興趣的區域進行增亮。大量的實驗表明,方法在定量和定性上都有優異的表現。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 函數
    +關注

    關注

    3

    文章

    4361

    瀏覽量

    63675
  • 模型
    +關注

    關注

    1

    文章

    3454

    瀏覽量

    49734
  • 圖像增強
    +關注

    關注

    0

    文章

    54

    瀏覽量

    10113

原文標題:ACM MM 2023 | CLE Diffusion:可控光照增強擴散模型

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于擴散模型的圖像生成過程

    等很難用文本指定。 ? 最近,谷歌發布了MediaPipe Diffusion插件,可以在移動設備上運行「可控文本到圖像生成」的低成本解決方案,支持現有的預訓練擴散模型及其低秩自適應(
    的頭像 發表于 07-17 11:00 ?3181次閱讀
    基于<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的圖像生成過程

    Stable Diffusion的完整指南:核心基礎知識、制作AI數字人視頻和本地部署要求

    Stable Diffusion是一種擴散模型diffusion model)的變體,叫做“潛在擴散
    的頭像 發表于 09-18 10:06 ?2924次閱讀
    Stable <b class='flag-5'>Diffusion</b>的完整指南:核心基礎知識、制作AI數字人視頻和本地部署要求

    Stable Diffusion采樣速度翻倍!僅需10到25步的擴散模型采樣算法

    然而,擴散模型在使用上最大的問題就是其極慢的采樣速度。模型采樣需要從純噪聲圖片出發,一步一步不斷地去噪,最終得到清晰的圖片。在這個過程中,模型必須串行地計算至少 50 到 100 步才
    的頭像 發表于 11-21 11:55 ?1962次閱讀

    基于擴散模型的視頻合成新模型,加特效杠杠的!

    近日,曾參與創建 Stable Diffusion 的 Runway 公司推出了一個新的人工智能模型「Gen-1」,該模型通過應用文本 prompt 或參考圖像指定的任何風格,可將現有視頻轉化為新視頻。
    的頭像 發表于 03-24 10:43 ?1245次閱讀

    使用OpenVINO?在算力魔方上加速stable diffusion模型

    Stable Diffusion 是 stability.ai 開源的 AI 圖像生成模型,實現輸入文字,生成圖像的功能。Stable Diffusion 將 AI 圖像生成提升到了全新高度,將引發媒體創作領域的革命。
    的頭像 發表于 05-12 09:10 ?1726次閱讀
    使用OpenVINO?在算力魔方上加速stable <b class='flag-5'>diffusion</b><b class='flag-5'>模型</b>

    開源了!UniControl:可控視覺生成的統一擴散模型

    現有的可控圖片生成模型都是針對單一的模態進行設計,然而 Taskonomy [3] 等工作證明不同的視覺模態之間共享特征和信息,因此本文認為統一的多模態模型具有巨大的潛力。
    的頭像 發表于 06-08 15:01 ?833次閱讀
    開源了!UniControl:<b class='flag-5'>可控</b>視覺生成的統一<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>

    基于一種移動端高性能 Stable Diffusion 模型

    ? Stable Diffusion (SD)是當前最熱門的文本到圖像(text to image)生成擴散模型。盡管其強大的圖像生成能力令人震撼,一個明顯的不足是需要的計算資源巨大,推理速度很慢
    的頭像 發表于 06-12 10:14 ?962次閱讀
    基于一種移動端高性能 Stable <b class='flag-5'>Diffusion</b> <b class='flag-5'>模型</b>

    英特爾研究院發布全新AI擴散模型,可根據文本提示生成360度全景圖

    英特爾研究院宣布與Blockade Labs合作發布LDM3D(Latent Diffusion Model for 3D)模型,這一全新的擴散模型使用生成式AI創建3D視覺內容。LD
    的頭像 發表于 06-30 19:50 ?444次閱讀

    如何加速生成2 PyTorch擴散模型

    加速生成2 PyTorch擴散模型
    的頭像 發表于 09-04 16:09 ?1268次閱讀
    如何加速生成2 PyTorch<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>

    DDFM:首個使用擴散模型進行多模態圖像融合的方法

    近來去噪擴散概率模型 Denoising diffusion probabilistic model (DDPM)在圖像生成中獲得很多進步,通過對一張noise-corrupted圖像恢復為干凈圖像的
    的頭像 發表于 09-19 16:02 ?5718次閱讀
    DDFM:首個使用<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>進行多模態圖像融合的方法

    NeurIPS 2023 | 擴散模型解決多任務強化學習問題

    擴散模型diffusion model)在 CV 領域甚至 NLP 領域都已經有了令人印象深刻的表現。最近的一些工作開始將 diffusion model 用于強化學習(RL)中來解
    的頭像 發表于 10-02 10:45 ?1072次閱讀
    NeurIPS 2023 | <b class='flag-5'>擴散</b><b class='flag-5'>模型</b>解決多任務強化學習問題

    谷歌新作UFOGen:通過擴散GAN實現大規模文本到圖像生成

    擴散模型和 GAN 的混合模型最早是英偉達的研究團隊在 ICLR 2022 上提出的 DDGAN(《Tackling the Generative Learning Trilemma with Denoising
    的頭像 發表于 11-21 16:02 ?794次閱讀
    谷歌新作UFOGen:通過<b class='flag-5'>擴散</b>GAN實現大規模文本到圖像生成

    擴散模型的理論基礎

    擴散模型的迅速崛起是過去幾年機器學習領域最大的發展之一。在這本簡單易懂的指南中,學習你需要知道的關于擴散模型的一切。
    的頭像 發表于 10-28 09:30 ?1073次閱讀
    <b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的理論基礎

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發表于 12-11 20:13 ?380次閱讀
    如何開啟Stable <b class='flag-5'>Diffusion</b> WebUI<b class='flag-5'>模型</b>推理部署

    ?Diffusion生成式動作引擎技術解析

    Diffusion生成式動作引擎 Diffusion生成式動作引擎是一種基于擴散模型Diffusion Models)的生成式人工智能技術
    的頭像 發表于 03-17 15:14 ?766次閱讀
    主站蜘蛛池模板: 欧美视频亚洲色图 | 国产小视频免费观看 | 一区二区高清在线观看 | 国产三片理论电影在线 | 国产精品毛片久久久久久久 | 黄色h视频 | 中文在线最新版天堂 | 国产精品丝袜xxxxxxx | 久久综合狠狠综合狠狠 | 中国一级特黄aa毛片大片 | 免费能看的黄色网址 | 一级免费黄色片 | 色多多网站 | 日本黄色大片免费 | 色综合888 | 婷婷开心激情 | 亚洲黄色小视频 | 国产永久免费爽视频在线 | 99热热热 | 国产一级特黄aa大片爽爽 | 免费网站色 | 在线观看中文字幕第一页 | 特一级黄色毛片 | 天天色天天操天天射 | 性夜黄a爽爽免费视频国产 羞羞答答xxdd影院欧美 | 天天操天天干视频 | 久久婷婷色 | 五月天婷婷基地 | vr亚洲成年网址在线观看 | 久青草视频在线播放 | 天堂成人精品视频在线观 | 好色成人网 | 777色淫网站女女 | 手机在线亚洲 | 国产产一区二区三区久久毛片国语 | 四虎在线最新永久免费播放 | 亚洲乱论| yy4080一级毛片免费观看 | 亚洲福利视频一区二区 | 中文字幕区| 欧美黄三级在线观看 |