現(xiàn)在各種AI大模型大行其道,前有GhatGPT顛覆了我們對(duì)對(duì)話型AI的原有印象,后有Sora文生視頻,讓我們看到了利用AI進(jìn)行創(chuàng)意創(chuàng)作的無限可能性。如今各大公司和團(tuán)隊(duì)都爭相提出自己的大模型,各種網(wǎng)頁端和軟件應(yīng)用也極大地降低了我們使用AI作為生產(chǎn)力的門檻。
我這次就為大家?guī)硎褂肁I進(jìn)行繪圖的入門實(shí)踐,為大促文章配圖,繪制大促廣告宣傳海報(bào),提升促銷圖的畫質(zhì)和精度,探索一下從這方面助力大促的新思路。
平臺(tái)
現(xiàn)在的AI繪圖主要用到的模型是SD(Stable Diffusion),它是一種穩(wěn)定擴(kuò)散模型,用于生成高質(zhì)量的圖像。這種模型是在傳統(tǒng)的擴(kuò)散模型DDPMs(Denoising Diffusion Probabilistic models)的基礎(chǔ)上發(fā)展出來的。
經(jīng)過多個(gè)版本的迭代和改進(jìn),這類模型已經(jīng)能很好的執(zhí)行“文生圖”、“圖生圖”、“后期處理”等AI功能,甚至可以在一定程度上代替PhotoShop等圖像處理軟件的工作。
現(xiàn)在許多開發(fā)者都發(fā)布了基于SD模型的改進(jìn)型模型,基本上所有的網(wǎng)頁端和軟件也都是基于此模型搭建的,要使用它進(jìn)行AI繪畫,主要有三種方法:
1.自己搭建基于SD的webui,在gitHub上有項(xiàng)目的源代碼: https://github.com/AUTOMATIC1111/stable-diffusion-webui 。這種方式的優(yōu)點(diǎn)是自由度高,可以根據(jù)自己的需求進(jìn)行客制化改造,更新也最及時(shí),但是要自己進(jìn)行環(huán)境搭建,對(duì)于一般用戶來說學(xué)習(xí)門檻較高,國內(nèi)使用的話需要魔法,同時(shí)經(jīng)過我的體驗(yàn)穩(wěn)定性不高,經(jīng)常會(huì)失敗。
2.使用網(wǎng)頁端應(yīng)用,這類網(wǎng)站是基于stable-diffusion-webui 搭建的第三方平臺(tái),由他們負(fù)責(zé)維護(hù)和更新,并提供穩(wěn)定的連接,用戶只需要選擇需要的模型和參數(shù),輸入提示詞,就可以在線生成圖片。
國內(nèi)有:
Liblib Ai: https://www.liblib.art/
MJ: https://mj.wxcbh.cn/home/?from=AI05&strategy=drawing5&bd_vid=17724435435623318479#/mj
都不需要魔法 。
國外的像:Playground AI: https://playground.com/ ,每天有免費(fèi)的體驗(yàn)次數(shù),速度和質(zhì)量也不錯(cuò)。
這類網(wǎng)站一般都有自己的模型市場,以供創(chuàng)作者們上傳和下載自定義的模型,并且分享自己的繪圖作品以及相關(guān)生圖的參數(shù),非常方便。但是一般都會(huì)收費(fèi),都會(huì)收費(fèi),都會(huì)收費(fèi),重要的事情說三遍。
3.PC端軟件,這類軟件一般也是基于SD模型進(jìn)行封裝,可以下載模型,設(shè)置參數(shù)并在本地生成圖片,使用體驗(yàn)類似于PS等圖片處理軟件,但是由于整個(gè)生成過程在本地執(zhí)行,比較依賴于本機(jī)算力,電腦性能不好的話生成會(huì)很慢,但是好處就是自定義程度相對(duì)較高,而且一般免費(fèi)。
生圖軟件
我這次主要介紹軟件的途徑,使用的軟件就是這款Draw Things,Mac端App Store免費(fèi)下載,不需要魔法
他的界面是這樣的:
參數(shù)設(shè)置區(qū)用于選擇模型,采集器,步數(shù)和隨機(jī)種子等參數(shù),首次生成圖片首先選擇“文本到圖像”模式。在這里我大致介紹一下涉及到的名詞:
模型
模型是AI繪畫的基礎(chǔ),一般的模型都是基于SD改進(jìn)的,SD模型也有V1.0、V1.5、V2.0、V2.1等不同的迭代版本,不同的模型可以生成不同風(fēng)格的圖片,可以根據(jù)自己的需要進(jìn)行選擇,模型可以在DrawThings里進(jìn)行下載和選擇,當(dāng)然也可以在Liblib Ai等網(wǎng)站上下載然后導(dǎo)入。
模型分為幾個(gè)主要的種類:
chekpoint(檢查點(diǎn))
它是完整模型的常見格式,模型體積較大,一般真人版的單個(gè)模型的大小在7GB左右,動(dòng)漫版的在2-5個(gè)G之間。決定了圖片的整體風(fēng)格。chekpoint的后綴名是safetensors
有寫實(shí),科幻,漫畫,廣告等等風(fēng)格
是一種體積較小的繪畫模型,是對(duì)大模型的微調(diào)。可以添加Lora為圖片創(chuàng)造更豐富的表現(xiàn)形式。與每次作畫只能選擇一個(gè)大模型不同,lora模型可以在已選擇大模型的基礎(chǔ)上添加一個(gè)甚至多個(gè)。一般體積在幾十到幾百兆左右。
Lora的后綴名也是safetensors,所以在安裝的時(shí)候要注意,Lora要在規(guī)定的地方導(dǎo)入:
Hypernetwork(超網(wǎng)絡(luò))
類似 LoRA ,但模型效果不如 LoRA,不能單獨(dú)使用,需要搭配大模型使用
?
采樣器
采樣器也會(huì)在一定程度上影響圖畫風(fēng)格,不同于模型,它一般是基于算法。選擇對(duì)的采樣器對(duì)于生成圖片的質(zhì)量至關(guān)重要,下面介紹一些主流的采樣器類型:
DDIM和PLMS是早期SD專為擴(kuò)散模型而設(shè)計(jì)的采樣器。DPM和DPM++系列是專為擴(kuò)散模型而設(shè)計(jì)的新型采樣器。DPM++是DPM的改進(jìn)版。
Euler a 比較適用于圖標(biāo)設(shè)計(jì)、二次元圖像、小型場景等簡單的圖像數(shù)據(jù)生成場景。
DPM和DPM++系列非常適用于三維景象和復(fù)雜場景的描繪,例如寫實(shí)人像。
Karras系列是專為擴(kuò)散模型而設(shè)計(jì)的改進(jìn)版采樣器,有效提升了圖片質(zhì)量。
Euler a,DPM2 a, DPM++2S a和DPM++2S a Karras適合給圖片增加創(chuàng)造性,隨著迭代步數(shù)的提升,圖片也會(huì)隨之變化。不同的采樣方法可能對(duì)不同的模型產(chǎn)生不同的影響,會(huì)影響生成圖片的藝術(shù)風(fēng)格,建議結(jié)合模型和迭代步數(shù)多做嘗試。
步數(shù)
生圖時(shí),去噪重復(fù)的步數(shù)被稱為采樣迭代步數(shù)。
測試新的模型或Prompts效果時(shí),迭代步數(shù)推薦使用10~15,可以快速獲得結(jié)果,方便進(jìn)行調(diào)整。當(dāng)?shù)綌?shù)太低時(shí),生成的圖像幾乎無法呈現(xiàn)內(nèi)容。20 ~ 30之間的迭代步數(shù)通常會(huì)有不錯(cuò)的效果。40步以上的迭代步數(shù)會(huì)需要更長的生圖時(shí)間,但收益可能有限,除非在繪制動(dòng)物毛發(fā)或皮膚紋理等。
過低或過高的初始分辨率都可能會(huì)讓SD生圖時(shí)無法正常發(fā)揮,建議參考基礎(chǔ)模型的分辨率,配置合適的初始寬高
隨機(jī)種子
隨機(jī)種子會(huì)影響生圖時(shí)的初始噪聲圖像。
當(dāng)Seed=-1時(shí),表示每次出圖都會(huì)隨機(jī)一個(gè)種子,使得每次生成的圖都會(huì)不同。其他創(chuàng)作者上傳圖片的時(shí)候,一般會(huì)附帶此圖片對(duì)應(yīng)的隨機(jī)種子,可以參考它來生成類似的圖片。點(diǎn)擊可以生成一個(gè)隨機(jī)的種子,長按則可以輸入特定的隨機(jī)種子。
提示詞
提示詞是生成圖片時(shí)關(guān)鍵中的關(guān)鍵,它直接決定了圖片內(nèi)容,畫面風(fēng)格,場景,表情動(dòng)作等一些列內(nèi)容,在生成圖片時(shí),選擇合適的提示詞至關(guān)重要。
提示詞分為“正向提示詞”和“反向提示詞”,“正向提示詞”代表你想要在圖片中呈現(xiàn)的內(nèi)容,反之“反向提示詞”則是不想要在圖片里具備的要素。
比如,我想要畫一張“618西瓜大促”相關(guān)的宣傳圖,我就可以這樣描述:
“許多人在湖里流動(dòng)的水邊吃西瓜,高質(zhì)量的微型攝影”,翻譯成英文:“Many people eat watermelons by the flowing water in the lake, with high-quality miniature photography”
將這段文字輸入DrawThings的文本框,它會(huì)自動(dòng)把整句話拆分成一個(gè)個(gè)提示詞。
當(dāng)然,我們也可以直接填入想要繪制的提示詞:
如上圖所示,如果我們想著重強(qiáng)調(diào)某一個(gè)提示詞,讓AI繪制的時(shí)候更偏重一這一特征,就可以用括號(hào)把它包起來,然后在后面注明權(quán)重,這里我就把西瓜(watermelon)加重到了1.5權(quán)重,以便更加突出這一點(diǎn)。
“反向提示詞”一般有:低質(zhì)量,不適合上班時(shí)間瀏覽(NSFW),描繪人物的時(shí)候,糟糕的眼睛,多余的手指,扭曲,變形等等
其他
還有一些其他的參數(shù),比如圖片分辨率和比例,文本指導(dǎo)強(qiáng)度(越高越忠實(shí)呈現(xiàn)文本內(nèi)容),以及一次生成的圖片數(shù)量等等
設(shè)置好一切,就可以開始生成圖片了,可以多嘗試幾張,從中挑選最合適的進(jìn)行二次處理。
?
二次處理
如果對(duì)生成的圖片有些細(xì)節(jié)不滿意,可以利用“圖像到圖像”模式,然后選擇強(qiáng)度。高分辨率修復(fù)的重繪強(qiáng)度為0時(shí)不會(huì)改變?cè)瓐D,30% 以下會(huì)基于原圖稍微修正,超過 70% 會(huì)對(duì)原圖做出較大改變,1 會(huì)得到一個(gè)完全不同的圖像。
二次處理主要包括以下幾個(gè)目的:
重繪圖像元素
如果對(duì)圖像中某部分的元素不滿意,可以用“橡皮擦”擦除該部分,然后重新生成,讓模型自動(dòng)將擦數(shù)的部分重繪,甚至可以消除某部分圖像元素,實(shí)測效果甚至好于PS。
擴(kuò)圖
對(duì)于一張圖片,如果想要擴(kuò)展邊界部分,讓模型繪制出額外的內(nèi)容,可以首先重新設(shè)置圖片的寬高。我這里原是圖片是1088*2048,想要擴(kuò)展左側(cè)湖里的景象,就可以先將圖片寬度增加到1536,然后移動(dòng)圖片到右側(cè)貼緊圖層邊緣。然后最關(guān)鍵的一步,用“橡皮擦”工具,沿著想要擴(kuò)展的那一邊,細(xì)細(xì)的擦一道,這么做的目的是告訴模型,從這一部分開始重繪,風(fēng)格要按照擦除的這部分來進(jìn)行,然后重新生成?
提升畫質(zhì)
最開始生成圖片時(shí),為了提高速度和效率,可以適當(dāng)降低分辨率,的到合適的圖片以后,可以重設(shè)分辨率和清晰度,重繪圖片,達(dá)到提升畫質(zhì)的目的。當(dāng)然,對(duì)于已經(jīng)已經(jīng)畫好的第三方圖片,也可以加載進(jìn)來進(jìn)行處理。
好了,本篇利用AI繪圖進(jìn)行實(shí)踐的文章就介紹到這里,希望能夠幫助到大家。在以后大促文章配圖,和大促海報(bào)繪制方面為大家提供便利,助力618大促再創(chuàng)新高!
-
AI
+關(guān)注
關(guān)注
87文章
33475瀏覽量
274041 -
人工智能
+關(guān)注
關(guān)注
1804文章
48418瀏覽量
244684
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
智慧路燈如何應(yīng)用人工智能技術(shù)

嵌入式和人工智能究竟是什么關(guān)系?
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感
AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得
risc-v在人工智能圖像處理應(yīng)用前景分析
人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析
人工智能ai4s試讀申請(qǐng)
名單公布!【書籍評(píng)測活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新
報(bào)名開啟!深圳(國際)通用人工智能大會(huì)將啟幕,國內(nèi)外大咖齊聚話AI
阿丘科技成功入選“北京市通用人工智能產(chǎn)業(yè)創(chuàng)新伙伴計(jì)劃”,AI+工業(yè)視覺實(shí)力再獲肯定

高通亮相2024世界人工智能大會(huì)
大模型應(yīng)用之路:從提示詞到通用人工智能(AGI)

評(píng)論