在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成式 AI 研究通過(guò)引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

NVIDIA英偉達(dá) ? 來(lái)源:未知 ? 2023-07-24 19:30 ? 次閱讀

新的研究正在通過(guò)一個(gè)文本引導(dǎo)的圖像編輯工具來(lái)提升生成式 AI 的創(chuàng)造性潛能。這項(xiàng)創(chuàng)新性的研究提出了一個(gè)使用即插即用擴(kuò)散特征(PnP DFs)的框架,可引導(dǎo)實(shí)現(xiàn)逼真而精確的圖像生成。通過(guò)這項(xiàng)研究,視覺(jué)內(nèi)容創(chuàng)作者只需一張?zhí)崾緢D片和幾個(gè)描述性詞語(yǔ),就能將圖像轉(zhuǎn)化為視覺(jué)內(nèi)容。

可靠輕松編輯并生成內(nèi)容的能力有助于藝術(shù)家、設(shè)計(jì)師和創(chuàng)作者不斷擴(kuò)展創(chuàng)意的可能性。這也將為那些依賴動(dòng)畫(huà)、視覺(jué)設(shè)計(jì)和圖像編輯的行業(yè)賦能。

這項(xiàng)研究的首席作者、魏茲曼科學(xué)研究院博士研究生 Narek Tumanyan 表示:“最新的文本到圖像生成模型標(biāo)志著數(shù)字內(nèi)容創(chuàng)作進(jìn)入了一個(gè)新時(shí)代。然而,將它們應(yīng)用于現(xiàn)實(shí)世界的主要挑戰(zhàn)在于缺乏用戶可控性,這在很大程度上局限于‘僅通過(guò)輸入文本來(lái)引導(dǎo)圖像生成’。我們的工作是最早為用戶提供圖像布局控制權(quán)的方法之一。”

生成式 AI 的最新突破為開(kāi)發(fā)強(qiáng)大的文本到圖像模型提供了新方法。然而,復(fù)雜性、模糊性以及對(duì)定制內(nèi)容的需求限制了當(dāng)前渲染技術(shù)的發(fā)展。

這項(xiàng)研究引入了一種新方法,使用 PnP DFs 來(lái)改進(jìn)圖像編輯和生成過(guò)程,使創(chuàng)作者對(duì)最終產(chǎn)物有更大的控制權(quán)。

研究人員從一個(gè)簡(jiǎn)單的問(wèn)題入手:擴(kuò)散模型如何表現(xiàn)并捕捉圖像的形狀或輪廓?研究探索了圖像在生成過(guò)程中不斷演變的內(nèi)部表征,并研究了這些表征如何對(duì)形狀和語(yǔ)義信息進(jìn)行編碼。

這種新方法通過(guò)理解如何在預(yù)訓(xùn)練的文本到圖像模型中編碼空間信息來(lái)控制生成的圖像布局,而無(wú)需訓(xùn)練新的擴(kuò)散模型或?qū)ζ溥M(jìn)行微調(diào)。在生成過(guò)程中,模型從引導(dǎo)圖像中提取擴(kuò)散特征,并將其注入到整個(gè)過(guò)程中的每一個(gè)步驟,從而對(duì)新圖像的結(jié)構(gòu)進(jìn)行精細(xì)控制。

通過(guò)融合這些空間特征,擴(kuò)散模型可以完善新圖像,使其與引導(dǎo)結(jié)構(gòu)相匹配。它會(huì)反復(fù)進(jìn)行此過(guò)程,更新圖像特征,直到生成一張既保留引導(dǎo)圖像布局、又與文本提示相匹配的最終圖像。

作者寫(xiě)道:“這就產(chǎn)生了一種簡(jiǎn)單而有效的方法,即從引導(dǎo)圖像中提取的特征直接注入到轉(zhuǎn)化圖像的生成過(guò)程中,無(wú)需進(jìn)行訓(xùn)練或微調(diào)?!?/p>

這種方法為更先進(jìn)的可控生成和操作方法鋪平了道路。

視頻. 在 2023 年國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議(CVPR)上展示的“文本驅(qū)動(dòng)的圖像到圖像翻譯的即插即用擴(kuò)散特征”研究概述

研究人員使用 cuDNN 加速的 PyTorch 框架在單個(gè) NVIDIA A100 GPU 上開(kāi)發(fā)并測(cè)試了這個(gè) PNP 模型。該團(tuán)隊(duì)表示,GPU 的大容量使他們能夠?qū)W⒂陂_(kāi)發(fā)方法。作為 NVIDIA 應(yīng)用研究加速器計(jì)劃的參與者,這些研究人員獲得了一塊 A100 GPU。

該框架部署在 A100 上,能夠在大約 50 秒內(nèi)從引導(dǎo)圖像和文本轉(zhuǎn)換為一個(gè)新圖像。

該過(guò)程不僅有高效,而且可靠,能準(zhǔn)確地生成令人驚嘆的圖像。除圖像外,它還適用于轉(zhuǎn)化草圖、繪圖和動(dòng)畫(huà),并能修改照明、色彩和背景。

圖 1.該方法的示例結(jié)果,保留了引導(dǎo)折紙圖像的結(jié)構(gòu),同時(shí)與目標(biāo)提示的描述相匹配(來(lái)源:Tumanyan, Narek 等人/CVPR 2023)

他們的方法還優(yōu)于現(xiàn)有的文本到圖像模型,在保留引導(dǎo)布局和偏離其外觀之間實(shí)現(xiàn)了卓越的平衡。

圖 2.示例結(jié)果,將該模型與 P2P、DiffuseIT、SDedit 和 VQ+CLIP 模型進(jìn)行三種不同噪聲水平的比較(來(lái)源:Tumanyan, Narek 等人/CVPR 2023)

然而,該模型確實(shí)存在一些局限性。當(dāng)編輯任意顏色的圖像區(qū)域時(shí),它的表現(xiàn)并不理想,因?yàn)樵撃P蜔o(wú)法從輸入圖像中提取語(yǔ)義信息。

目前,研究人員正在致力于將這種方法擴(kuò)展到文本引導(dǎo)的視頻編輯中。同時(shí),該研究還證明對(duì)于其他利用擴(kuò)散模型分析圖像內(nèi)部表征的研究也具有重要價(jià)值。

例如,有一項(xiàng)研究正在利用該團(tuán)隊(duì)的研究成果來(lái)改進(jìn)計(jì)算機(jī)視覺(jué)任務(wù),例如語(yǔ)義點(diǎn)對(duì)應(yīng)。另一項(xiàng)研究則專(zhuān)注于擴(kuò)展文本到圖像生成的控制,包括物體的形狀、位置和外觀。

這項(xiàng)研究已在 GitHub 上開(kāi)源。

點(diǎn)擊“閱讀原文”,或掃描下方海報(bào)二維碼,在 8 月 8日聆聽(tīng)NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 SIGGRAPH 現(xiàn)場(chǎng)發(fā)表的 NVIDIA 主題演講,了解 NVIDIA 的新技術(shù),包括屢獲殊榮的研究,OpenUSD 開(kāi)發(fā),以及最新的 AI 內(nèi)容創(chuàng)作解決方案。


原文標(biāo)題:生成式 AI 研究通過(guò)引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3848

    瀏覽量

    91984

原文標(biāo)題:生成式 AI 研究通過(guò)引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    生成AI工具作用

    生成AI工具是指那些能夠自動(dòng)生成文本、圖像、音頻、視頻等多種類(lèi)型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.
    的頭像 發(fā)表于 10-28 11:19 ?318次閱讀

    商湯日日新大模型體系持續(xù)升級(jí),為全行業(yè)創(chuàng)作者提供新質(zhì)生產(chǎn)力

    AIGC帶來(lái)的可能性不僅為創(chuàng)作者提供了廣闊的創(chuàng)作空間,也帶來(lái)了嶄新的藝術(shù)形式和語(yǔ)言。
    的頭像 發(fā)表于 09-26 10:18 ?503次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑
    的頭像 發(fā)表于 08-30 16:23 ?1208次閱讀

    索尼電影攝影機(jī)助力創(chuàng)作者實(shí)現(xiàn)影像夢(mèng)想

    索尼一直致力于通過(guò)創(chuàng)新技術(shù),忠實(shí)還原創(chuàng)作者的意圖,憑借在廣播電視及專(zhuān)業(yè)影像業(yè)務(wù)中深厚的技術(shù)積累,助力創(chuàng)作者實(shí)現(xiàn)影像夢(mèng)想,用創(chuàng)意和科技的力量感動(dòng)世界。
    的頭像 發(fā)表于 08-16 10:54 ?742次閱讀

    如何用C++創(chuàng)建簡(jiǎn)單的生成AI模型

    生成AI(Generative AI)是一種人工智能技術(shù),它通過(guò)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)技術(shù),從大量歷史數(shù)據(jù)中學(xué)習(xí)對(duì)象的特征和規(guī)律,從而能夠
    的頭像 發(fā)表于 07-05 17:53 ?1050次閱讀

    生成AI的基本原理和應(yīng)用領(lǐng)域

    生成人工智能(Generative Artificial Intelligence,簡(jiǎn)稱(chēng)Generative AI)是一種利用機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)技術(shù),通過(guò)模擬人類(lèi)的創(chuàng)造性思維過(guò)程
    的頭像 發(fā)表于 07-04 11:50 ?1759次閱讀

    商湯發(fā)布《2024生成AI教育未來(lái)》白皮書(shū)

    生成AI正在各個(gè)行業(yè)中展現(xiàn)出巨大的應(yīng)用前景。在關(guān)系國(guó)計(jì)民生的教育行業(yè),生成AI能夠催生哪些創(chuàng)
    的頭像 發(fā)表于 06-29 09:48 ?913次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專(zhuān)為電影和圖像內(nèi)容創(chuàng)作者提供生成AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻
    的頭像 發(fā)表于 06-19 09:25 ?621次閱讀

    創(chuàng)作者變身知識(shí)智能體,AI時(shí)代的“超級(jí)個(gè)體”

    無(wú)Agent不創(chuàng)作:為什么知識(shí)智能體是創(chuàng)作者的人生杠桿?
    的頭像 發(fā)表于 04-23 09:26 ?1439次閱讀
    <b class='flag-5'>創(chuàng)作者</b>變身知識(shí)智能體,<b class='flag-5'>AI</b>時(shí)代的“超級(jí)個(gè)體”

    生成AI手機(jī)出貨量或?qū)w速增長(zhǎng),市場(chǎng)份額提升顯著

    同時(shí),反轉(zhuǎn)點(diǎn)還預(yù)期,至2027年,生成AI智慧型手機(jī)的市場(chǎng)保有量將超過(guò)10億部。按照其定義,生成AI
    的頭像 發(fā)表于 04-16 16:55 ?671次閱讀

    京東十億現(xiàn)金及十億流量鼓勵(lì)原創(chuàng)作者和優(yōu)質(zhì)內(nèi)容機(jī)構(gòu)入駐

    首先,針對(duì)涵蓋數(shù)碼3C、家電家居、母嬰、寵物、時(shí)尚、運(yùn)動(dòng)、美妝個(gè)護(hù)、健康、車(chē)品等20余個(gè)創(chuàng)作領(lǐng)域的達(dá)人們,京東將給予現(xiàn)金補(bǔ)貼。達(dá)到招募標(biāo)準(zhǔn)的創(chuàng)作者,單個(gè)周期內(nèi)單個(gè)賬戶最高可領(lǐng)取3萬(wàn)元現(xiàn)金創(chuàng)作補(bǔ)貼,且同時(shí)享受視頻播放補(bǔ)貼和帶貨傭金
    的頭像 發(fā)表于 04-10 14:19 ?537次閱讀

    NVIDIA Edify多模態(tài)架構(gòu)升級(jí),引領(lǐng)視覺(jué)生成AI新紀(jì)元

    NVIDIA近日宣布,其用于視覺(jué)生成AI的多模態(tài)架構(gòu)Edify迎來(lái)重大更新,為開(kāi)發(fā)者和視覺(jué)內(nèi)容提供商帶來(lái)前所未有的新功能。其中,3D資產(chǎn)生成功能的引入,極大地提升了
    的頭像 發(fā)表于 03-27 10:22 ?516次閱讀

    微軟收購(gòu)Inflection AI,將其技術(shù)授給創(chuàng)作者

    Inflection AI 隨后發(fā)表聲明,稱(chēng)他們將在 Microsoft Azure 上部署 Inflection-2.5 工具套件,這將助力廣大創(chuàng)作者使用這項(xiàng)技術(shù)。同時(shí),他們也承諾在可預(yù)見(jiàn)的未來(lái),將在其他各大云計(jì)算平臺(tái)上推廣其模型及服務(wù)。
    的頭像 發(fā)表于 03-21 10:13 ?574次閱讀

    亞馬遜云科技助力沐瞳應(yīng)用生成AI技術(shù)打造卓越游戲體驗(yàn) 業(yè)務(wù)決策

    北京 ——2024 年 2 月 21 日 ? 亞馬遜云科技宣布,上海沐瞳科技有限公司(以下簡(jiǎn)稱(chēng)“沐瞳”)應(yīng)用亞馬遜云科技Amazon Bedrock等生成AI服務(wù),為玩家打造卓越的游戲體驗(yàn)并
    發(fā)表于 02-22 11:20 ?252次閱讀
    亞馬遜云科技助力沐瞳應(yīng)用<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>技術(shù)打造卓越游戲體驗(yàn) <b class='flag-5'>賦</b><b class='flag-5'>能</b>業(yè)務(wù)決策

    亞馬遜云科技助力沐瞳應(yīng)用生成AI技術(shù)打造卓越游戲體驗(yàn) 業(yè)務(wù)決策

    北京2024年2月21日?/美通社/ -- 亞馬遜云科技宣布,上海沐瞳科技有限公司(以下簡(jiǎn)稱(chēng)"沐瞳")應(yīng)用亞馬遜云科技Amazon Bedrock等生成AI服務(wù),為玩家打造卓越的游戲體驗(yàn)并
    的頭像 發(fā)表于 02-22 09:25 ?447次閱讀
    主站蜘蛛池模板: 特级黄色淫片 | 天天舔天天插 | 久久久久久青草大香综合精品 | 很黄很黄的网站免费的 | 性欧美巨大 | 亚洲成人网在线 | 免费被视频网站在线观看 | avtt香蕉| 欧美一级视频精品观看 | 91精品欧美激情在线播放 | 免费看曰批女人爽的视频网址 | 午夜激情小视频 | 在线观看视频在线观看 | 国产精品免费久久久久影院 | 久久美女精品 | 欧美黄色片 一级片 | www.色av.com| 欧美区在线 | 成人爽a毛片在线视频 | 91网址在线播放 | 成人中文字幕一区二区三区 | 激情丁香六月 | dy天堂 | 伊人网址 | 国产成人毛片亚洲精品不卡 | 国产做爰一区二区 | 亚洲欧美视频一区二区三区 | 91久久国产青草亚洲 | 天天添天天射 | 222aaa免费国产在线观看 | h在线观看免费 | 亚洲一区二区三区四区在线观看 | 毛片网子| 国产婷婷综合在线精品尤物 | 永久精品免费影院在线观看网站 | 日本加勒比在线播放 | 免费人成年短视频在线观看免费网站 | 日本写真高清视频免费网站网 | 激情在线视频 | 韩国三级在线视频 | 欧美video free xxxxx |