隨著CLIP、DALL·E、Diffusion Model、Magic3D、Stable Diffusion等技術(shù)的快速發(fā)展,AIGC在全球各大科技巨頭間可謂是高頻詞匯,連帶著AI這個(gè)老生常談的話題也一并火熱起來(lái)。
去年三月,OpenAI發(fā)布了人工智能繪畫產(chǎn)品DALL·E,后來(lái)升級(jí)到DALL·E 2。谷歌和Meta緊隨其后,并且進(jìn)一步發(fā)展出文字轉(zhuǎn)視頻功能。今年8月,Stable Diffusion正式開(kāi)源。而在日前,英偉達(dá)也宣布加入AIGC的賽道,發(fā)布了Magic3D。
那么AIGC是怎么突然火起來(lái)的?又是否是更通用的AI的起點(diǎn)?會(huì)不會(huì)和原創(chuàng)工作者“搶飯碗”?
注:由于篇幅有限需要更多 AIGC 詳細(xì)資料,請(qǐng)?jiān)诠娞?hào)末尾留下您的郵箱,小編會(huì)將PDF文件發(fā)您郵箱,共同進(jìn)步學(xué)習(xí)。
AIGC高性能計(jì)算一體機(jī)
深度學(xué)習(xí)與AIGC
AIGC使用人工智能技術(shù)來(lái)生成內(nèi)容。2021年之前,AIGC主要生成文字,新一代模型可以處理的格式內(nèi)容包括:文字、語(yǔ)音、代碼、圖像、視頻、機(jī)器人動(dòng)作等。AIGC被認(rèn)為是繼專業(yè)生產(chǎn)內(nèi)容PGC、用戶生成內(nèi)容UGC之后的一種新的內(nèi)容創(chuàng)作方式,可以充分發(fā)揮其在創(chuàng)意、表現(xiàn)力、迭代、傳播、個(gè)性化等方面的技術(shù)優(yōu)勢(shì)。2022年,AIGC以驚人的速度發(fā)展。年初還處于技藝生疏階段,幾個(gè)月后達(dá)到專業(yè)水平,足以以假亂真。與此同時(shí),AIGC的迭代速度呈指數(shù)級(jí)爆發(fā),其中深度學(xué)習(xí)模型的不斷完善、開(kāi)源模型的推廣以及大模型商業(yè)化的可能,成為AIGC發(fā)展的“加速度”。
一、深度學(xué)習(xí)模型是AIGC加速普及的基礎(chǔ)
視覺(jué)信息在網(wǎng)絡(luò)中一直具有很強(qiáng)的傳播力且易被大眾感知,具有跨平臺(tái)、跨領(lǐng)域、跨人群的優(yōu)勢(shì),自然容易被記住和理解。同時(shí)視覺(jué)信息應(yīng)用場(chǎng)景廣泛,因此生成高質(zhì)量的圖像成為當(dāng)前AI領(lǐng)域的一個(gè)現(xiàn)象級(jí)功能。
2021年,OpenAI團(tuán)隊(duì)將開(kāi)源跨模態(tài)深度學(xué)習(xí)模型CLIP(對(duì)比語(yǔ)言-圖像預(yù)訓(xùn)練,以下簡(jiǎn)稱“CLIP”)。CLIP模型可以將文字和圖像關(guān)聯(lián)起來(lái),比如文字“狗”和狗的圖像進(jìn)行關(guān)聯(lián),并且關(guān)聯(lián)特征非常豐富。所以CLIP模型有兩個(gè)優(yōu)點(diǎn):
1、可以同時(shí)理解自然語(yǔ)言和分析計(jì)算機(jī)視覺(jué),實(shí)現(xiàn)圖文匹配。
2、為有足夠多的有標(biāo)記的“文本-圖像”進(jìn)行訓(xùn)練,CLIP模型大量使用互聯(lián)網(wǎng)上的圖片,這些圖片一般攜帶各種文本描述,成為CLIP的天然訓(xùn)練樣本。
據(jù)統(tǒng)計(jì),CLIP模型在網(wǎng)絡(luò)上收集了超過(guò)40億的“文本-圖像”訓(xùn)練數(shù)據(jù),為AIGC的后續(xù)應(yīng)用,尤其是輸入文本生成圖像/視頻落定奠定了基礎(chǔ)。
GAN(Generative Adver Serial Network)雖然是很多AIGC的基礎(chǔ)框架,但它有三個(gè)缺點(diǎn):
1、對(duì)輸出結(jié)果的控制能力弱,容易產(chǎn)生隨機(jī)圖像;
2、生成的圖像分辨率低;
3、由于需要使用鑒別器來(lái)判斷生成的圖像是否與其他圖像屬于同一類別,因此生成的圖像是對(duì)已有作品的模仿,而非創(chuàng)新。所以依靠GAN模型很難生成新的圖像,也無(wú)法通過(guò)文本提示生成新的圖像。
AIGC相關(guān)深度學(xué)習(xí)模型匯總表
隨后出現(xiàn)的Diffusion擴(kuò)散化模型,真正讓文本生成圖像的AIGC應(yīng)用為大眾所熟知,也是2022年下半年Stable Diffusion應(yīng)用的重要推手。Diffusion有兩個(gè)特點(diǎn):
1、在圖像中加入高斯噪聲,通過(guò)破壞訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),然后找出如何逆轉(zhuǎn)這個(gè)噪聲過(guò)程來(lái)恢復(fù)原始圖像。訓(xùn)練后,模型可以從隨機(jī)輸入中合成新數(shù)據(jù)。
2、Stable Diffusion通過(guò)數(shù)學(xué)變換將模型的計(jì)算空間從像素空間降低到一個(gè)勢(shì)空間的低維空間,大大減少了計(jì)算量和時(shí)間,大大提高了模型訓(xùn)練的效率。這種算法模式的創(chuàng)新直接推動(dòng)了AIGC技術(shù)的突破性進(jìn)展。
總的來(lái)說(shuō),AIGC在2022年實(shí)現(xiàn)了突破,主要是在深度學(xué)習(xí)模型上取得了很大的進(jìn)步:首先基于海量互聯(lián)網(wǎng)圖片訓(xùn)練了CLIP模型,推動(dòng)AI繪畫模型結(jié)合創(chuàng)新;其次,Diffusion擴(kuò)散化模型實(shí)現(xiàn)算法創(chuàng)新;最后,利用潛在空間的降維方法降低Diffusion模型內(nèi)存和時(shí)間消耗大的問(wèn)題。所以,AIGC繪畫之所以能幫助大眾畫出各種充滿想象力的畫,有賴于大量深度學(xué)習(xí)模型的不斷完善。
二、“開(kāi)源模式”成為AIGC發(fā)展催化劑
在算法模型方面,AIGC的發(fā)展離不開(kāi)開(kāi)源模型的推動(dòng)。以深度學(xué)習(xí)模型CLIP為例,開(kāi)源模型加速了CLIP模型的廣泛應(yīng)用,使其成為目前最先進(jìn)的圖像分類人工智能,讓更多的機(jī)器學(xué)習(xí)從業(yè)者將CLIP模型嫁接到其他AI應(yīng)用中。與此同時(shí),AIGC繪畫最受歡迎的應(yīng)用穩(wěn)定擴(kuò)散(Stable Diffusion)已經(jīng)正式開(kāi)源(包括模型權(quán)重和代碼),這意味著任何用戶都可以使用它來(lái)建立特定文本到圖像的創(chuàng)作任務(wù)。穩(wěn)定擴(kuò)散的開(kāi)源直接引發(fā)了2022年下半年AIGC的廣泛關(guān)注。短短幾個(gè)月,大量二次開(kāi)發(fā)出現(xiàn),從模型優(yōu)化到應(yīng)用擴(kuò)展,大大降低了用戶使用AIGC進(jìn)行創(chuàng)作的門檻,提高了創(chuàng)作效率,長(zhǎng)期占據(jù)GitHub熱榜第一。
AIGC繪畫應(yīng)用系統(tǒng)匯總表
在訓(xùn)練數(shù)據(jù)集方面,機(jī)器學(xué)習(xí)離不開(kāi)大量的數(shù)據(jù)學(xué)習(xí)。作為全球非營(yíng)利性機(jī)器學(xué)習(xí)研究機(jī)構(gòu),LAION于2022年3月開(kāi)放了最大的開(kāi)源跨模態(tài)數(shù)據(jù)庫(kù)LAION-5B,使近60億個(gè)“文本-圖像”對(duì)可供訓(xùn)練,從而進(jìn)一步加速了AI圖像生成模型的成熟,幫助研究人員加速?gòu)奈淖值綀D像的模型生成。正是CLIP和LAION的開(kāi)源模型構(gòu)建了當(dāng)前AI圖像生成應(yīng)用的核心。未來(lái),隨著模型的穩(wěn)定,開(kāi)源將成為AIGC走向成熟的催化劑。源模型有望使相關(guān)模型成為海量應(yīng)用、網(wǎng)絡(luò)和服務(wù)的基礎(chǔ),應(yīng)用層面的創(chuàng)造力有望迎來(lái)拐點(diǎn)。
AIGC發(fā)展歷程與概念
1950年,艾倫·圖靈在論文《計(jì)算機(jī)器與智能》中提出了著名的“圖靈測(cè)試”,給出了一種確定機(jī)器是否具有“智能”的測(cè)試方法,即機(jī)器能否模仿人類的思維方式“生成”內(nèi)容,然后與人進(jìn)行交互。某種程度上,從那時(shí)起,人工智能就被期待用于內(nèi)容創(chuàng)作。經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展,隨著數(shù)據(jù)的快速積累、算力性能提升和算法效力增強(qiáng),今天的人工智能不僅可以與人類進(jìn)行交互,還可以進(jìn)行寫作、編曲、繪畫、視頻制作等創(chuàng)意工作。2018年,人工智能生成的畫作在佳士得拍賣行以43.25萬(wàn)美元成交,成為全球首個(gè)售出的人工智能藝術(shù)品,受到各界關(guān)注。隨著人工智能在內(nèi)容創(chuàng)作中的應(yīng)用越來(lái)越多,人工智能生成內(nèi)容(AIGC)的概念悄然興起。
一、AIGC 發(fā)展歷程
結(jié)合人工智能的演進(jìn),AIGC的發(fā)展大致可以分為三個(gè)階段,即早期萌芽階段(20世紀(jì)50年代至90年代中期)、沉淀積累階段(20世紀(jì)90年代中期至21世紀(jì)10年代中期)、快速發(fā)展階段(21 世紀(jì) 10 年代中期至今)。
1、早期萌芽階段(1950s-1990s)
受當(dāng)時(shí)科技水平限制,AIGC僅限于小規(guī)模實(shí)驗(yàn)。1957年,Lejaren Hiller和LeonardIsaacson通過(guò)將計(jì)算機(jī)程序中的控制變量改為音符,完成了歷史上第一部由計(jì)算機(jī)創(chuàng)作的音樂(lè)作品——弦樂(lè)四重奏《依利亞克組曲》。1966年,約瑟夫·韋岑鮑姆(Joseph Weizenbaum)和肯尼斯·科爾比(Kenneth Colbv)共同開(kāi)發(fā)了世界上第一個(gè)機(jī)器人“伊莉莎(Eliza)”,可以通過(guò)關(guān)鍵字掃描和重組來(lái)完成交互式任務(wù)。20世紀(jì)80年代中期,IBM基于隱馬爾可夫模型創(chuàng)造了聲控打字機(jī)“Tangora”大概能處理兩萬(wàn)字。從80年代末至 90年代中,由于高昂的系統(tǒng)成本無(wú)法帶來(lái)可觀的商業(yè)變現(xiàn),各國(guó)政府減少了在人工智能領(lǐng)域的投入,AIGC也沒(méi)有取得重大突破。
2、沉淀積累階段(1990s-2010s)
AIGC從實(shí)驗(yàn)性向?qū)嵱眯灾饾u轉(zhuǎn)變。2006年,深度學(xué)習(xí)算法取得重大突破。與此同時(shí),圖形處理單元(GPU)和張量處理器(TPU)等計(jì)算設(shè)備的性能持續(xù)提升。互聯(lián)網(wǎng)使得數(shù)據(jù)規(guī)模迅速擴(kuò)大,為各類人工智能算法提供了海量的訓(xùn)練數(shù)據(jù),使人工智能的發(fā)展取得了重大進(jìn)展。然而,AIGC仍然受到算法瓶頸的限制,無(wú)法很好地完成創(chuàng)作任務(wù)應(yīng)用仍然有限,效果有待提升。2007 年,紐約大學(xué)人工智能研究員羅斯·古德溫裝配的人工智能系統(tǒng)通過(guò)對(duì)公路旅行中的一切所見(jiàn)所聞進(jìn)行記錄和感知,撰寫出小說(shuō)《1The Road》。作為世界上第一部完全由人工智能創(chuàng)作的小說(shuō),其象征意義遠(yuǎn)大于實(shí)際意義,整體可讀性不強(qiáng),拼寫錯(cuò)誤、修辭空洞、邏輯缺失明顯。2012年,微軟公開(kāi)展示了全自動(dòng)同聲傳譯系統(tǒng)。基于深度神經(jīng)網(wǎng)絡(luò)通過(guò)語(yǔ)音識(shí)別、語(yǔ)言翻譯、語(yǔ)音合成等技術(shù)等技術(shù)生成中文語(yǔ)音。
3、快速發(fā)展階段(2010s-至今)
2014年以來(lái),隨著以生成式對(duì)抗網(wǎng)絡(luò)(GAN)為代表的深度學(xué)習(xí)算法的提出和迭代更新,AIGC迎來(lái)了一個(gè)新的時(shí)代。生成內(nèi)容百花齊放,效果逐漸逼真至人類難以分辨。2017年,微軟人工智能少女“小冰”推出全球首個(gè)由人工智能創(chuàng)作的100%詩(shī)集《陽(yáng)光失去了玻璃窗》。2018年,Nvidia發(fā)布的StyleGAN機(jī)型可以自動(dòng)生成圖片,現(xiàn)在已經(jīng)升級(jí)到第四代機(jī)型StyleGAN-XL,其生成的高分辨率圖片,人眼很難分辨真假。2019年,DeepMind發(fā)布了生成連續(xù)視頻的DVD-GAN模型,在草原、廣場(chǎng)等清晰場(chǎng)景中表現(xiàn)突出。2021年,OpenAI推出了DALL-E和一年后的升級(jí)版DALL-E-2,主要用于生成文本和圖像之間的交互內(nèi)容。用戶只需輸入簡(jiǎn)短的描述性文字,DALL-E-2就能創(chuàng)作出相應(yīng)的高質(zhì)量的卡通、寫實(shí)、抽象畫。
AIGC發(fā)展歷程
二、AIGC的概念和內(nèi)涵
目前,AIGC的概念還沒(méi)有統(tǒng)一規(guī)范的定義。AIGC對(duì)國(guó)內(nèi)產(chǎn)學(xué)研的理解是“繼專業(yè)生成內(nèi)容(PGC)和用戶生成內(nèi)容(UGC)之后,利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式”。國(guó)際上對(duì)應(yīng)的術(shù)語(yǔ)是“人工智能合成媒體(AI-generated Media 或Synthetic Media)”,其定義是“通過(guò)人工智能算法對(duì)數(shù)據(jù)或媒體進(jìn)行生產(chǎn)、操縱和修改的統(tǒng)稱”。綜上所述,我們認(rèn)為AIGC既是從內(nèi)容生產(chǎn)者視角進(jìn)行分類的一類內(nèi)容,又是一種內(nèi)容生產(chǎn)方式,還是用于內(nèi)容自動(dòng)化生成的一類技術(shù)集合。
為了幫助不同領(lǐng)域的受眾群體更好地了解AIGC,現(xiàn)在從發(fā)展背景、技術(shù)能力、應(yīng)用價(jià)值三個(gè)方面深入剖析了它的概念。
1、發(fā)展背景
AIGC的興起源于深度學(xué)習(xí)技術(shù)的快速突破和數(shù)字內(nèi)容供給需求的不斷增加。
1)技術(shù)進(jìn)步推動(dòng)了AIGC可用性的提高
在人工智能發(fā)展的初期,雖然在AIGC上進(jìn)行了一些初步的嘗試,但由于各種因素,相關(guān)算法大多基于預(yù)定義的規(guī)則或模板,遠(yuǎn)沒(méi)有達(dá)到智能創(chuàng)造的水平。近年來(lái),基于深度學(xué)習(xí)算法的AIGC技術(shù)快速迭代,徹底打破了模板化、公式化、小范圍的限制,可以快速靈活地生成不同模式的數(shù)據(jù)內(nèi)容。
2)海量需求牽引 AIGC 應(yīng)用落地
隨著數(shù)字經(jīng)濟(jì)與實(shí)體經(jīng)濟(jì)融合的不斷深入,以及Meta、微軟、字節(jié)跳動(dòng)等平臺(tái)巨頭的數(shù)字場(chǎng)景向元宇宙的轉(zhuǎn)型,人類對(duì)數(shù)字內(nèi)容總量和豐富度的整體需求不斷增加。數(shù)字內(nèi)容的生產(chǎn)取決于想象力、制造能力和知識(shí)水平;傳統(tǒng)的內(nèi)容生產(chǎn)方式受限于人力資源有限的制造能力,逐漸無(wú)法滿足消費(fèi)者對(duì)數(shù)字內(nèi)容的需求,供給側(cè)產(chǎn)能瓶頸日益凸顯。基于以上原因,AIGC已被廣泛應(yīng)用于各個(gè)行業(yè),其市場(chǎng)潛力也逐漸顯現(xiàn)。
2、技術(shù)能力
根據(jù)面向?qū)ο蠛蛯?shí)現(xiàn)功能的不同,AIGC可以分為三個(gè)層次。
1)智能數(shù)字內(nèi)容孿生
其主要目標(biāo)是建立從現(xiàn)實(shí)世界到數(shù)字世界的映射,并將物理屬性(如大小、紋理、顏色等)和社會(huì)屬性(如主體行為、主體關(guān)系等)在現(xiàn)實(shí)世界中高效且可感知進(jìn)行數(shù)字化。
2)智能數(shù)字內(nèi)容編輯
其主要目的是建立數(shù)字世界與現(xiàn)實(shí)世界的雙向交互。基于數(shù)字內(nèi)容孿生的基礎(chǔ)上,從現(xiàn)實(shí)世界控制和修改虛擬數(shù)字世界中的內(nèi)容。同時(shí)利用數(shù)字世界高效率仿真和低成本試錯(cuò)的優(yōu)勢(shì),為現(xiàn)實(shí)世界的應(yīng)用提供快速迭代能力。
3)智能數(shù)字內(nèi)容創(chuàng)作
其主要目標(biāo)是讓人工智能算法具備內(nèi)容創(chuàng)作和自我演化的能力,由此形成的AIGC產(chǎn)品具備類似甚至超越人類的創(chuàng)作能力。以上三個(gè)層面的能力共同構(gòu)成了AIGC的能力閉環(huán)。
3、應(yīng)用價(jià)值
AIGC將有望成為數(shù)字內(nèi)容創(chuàng)新發(fā)展的新引擎,為數(shù)字經(jīng)濟(jì)發(fā)展注入新動(dòng)能。
1)AIGC 能夠以優(yōu)于人類的制造能力和知識(shí)水平承擔(dān)信息挖掘、素材調(diào)用、復(fù)刻編輯等基礎(chǔ)性機(jī)械勞動(dòng),從技術(shù)層面實(shí)現(xiàn)以低邊際成本、高效率的方式滿足海量個(gè)性化需求;同時(shí)能夠創(chuàng)新內(nèi)容生產(chǎn)的流程和范式,為更具想象力的內(nèi)容、更加多樣化的傳播方式提供可能性,推動(dòng)內(nèi)容生產(chǎn)向更有創(chuàng)造力的方向發(fā)展。
2)AIGC可以支撐數(shù)字內(nèi)容與其他產(chǎn)業(yè)的多維度互動(dòng)、融合滲透,從而孕育新的商業(yè)模式,打造經(jīng)濟(jì)發(fā)展的新增長(zhǎng)點(diǎn),為千行百業(yè)的發(fā)展提供新動(dòng)能。此外,從2021年開(kāi)始,元宇宙呈現(xiàn)出超乎想象的爆發(fā)式發(fā)展;作為數(shù)字與現(xiàn)實(shí)融合的“終極”數(shù)字載體,元宇宙將具有持久性、實(shí)時(shí)性、創(chuàng)造性等特征。它還將加速物理世界的再生產(chǎn),并通過(guò)AIGC創(chuàng)造無(wú)限的內(nèi)容,從而實(shí)現(xiàn)自發(fā)的有機(jī)增長(zhǎng)。
三、AIGC關(guān)鍵技術(shù)落地實(shí)施
目前AIGC生成正在完成從簡(jiǎn)單的降本增效(以生成金融/體育新聞為代表)向創(chuàng)造額外價(jià)值(以提供繪畫創(chuàng)作素材為代表)轉(zhuǎn)移,跨模態(tài)/多模態(tài)內(nèi)容成為關(guān)鍵的發(fā)展節(jié)點(diǎn)。
技術(shù)視角下,以下場(chǎng)景將成為未來(lái)發(fā)展的重點(diǎn):文本-圖像 視頻的跨模態(tài)生成、2D到3D生成、多模態(tài)理解結(jié)合生成。后文將對(duì)以上技術(shù)場(chǎng)景的技術(shù)原理、現(xiàn)有進(jìn)展、關(guān)鍵瓶頸等進(jìn)行展開(kāi)。
商業(yè)視角下、未來(lái)3年內(nèi),虛擬人生成和游戲AI這兩種綜合性的AIGC場(chǎng)景將趨于商業(yè)化成熟。
1、文本生成
以結(jié)構(gòu)性新聞撰寫、內(nèi)容續(xù)寫、詩(shī)詞創(chuàng)作等細(xì)分功能為代表。基于NLP技術(shù)的文木生成可以算作是AIGC中發(fā)展最早的一部分技術(shù),也已經(jīng)在新聞報(bào)道、對(duì)話機(jī)器人等應(yīng)用場(chǎng)景中大范圍商業(yè)落地。
一方面,2020年,1750億參數(shù)的GPT-3在問(wèn)答、摘要、翻譯、續(xù)寫等語(yǔ)言類任務(wù)上均展現(xiàn)出了優(yōu)秀的通用能力。證明了“大力出奇跡”在語(yǔ)言類模型上的可行性。自此之后,海量數(shù)據(jù)、更多參數(shù)、多元的數(shù)據(jù)采集渠道等成為國(guó)內(nèi)清華大學(xué)、智源研究院、達(dá)摩院、華為、北京大學(xué)、百度等參與者的關(guān)注點(diǎn)。
目前,大型文本預(yù)訓(xùn)練模型作為底層工具,商業(yè)變現(xiàn)能力逐漸清晰。以GPT-3為例,其文木生成能力已被直接應(yīng)用于Writesonic、Conversion.ai、SnazzyAl、Copysmith、Copy.ai、Headlime等文本寫作/編輯工具中。同時(shí)也被作為部分文本內(nèi)容的提供方,服務(wù)于Al dungeon等文本具有重要意義的延展應(yīng)用領(lǐng)域。
另一方面,以Transformer架構(gòu)為重要代表,相關(guān)的底層架構(gòu)仍在不斷精進(jìn)。研究者們正通過(guò)增加K-adapter、優(yōu)化Transformer架構(gòu),合理引入知識(shí)圖譜及知識(shí)庫(kù)、增加特定任務(wù)對(duì)應(yīng)Embeddina等方式,增加文本對(duì)于上下文的理解與承接能力、對(duì)常識(shí)性知識(shí)的嵌入能力、中長(zhǎng)篇幅生成能力、生成內(nèi)容的內(nèi)在邏輯性等。
1)應(yīng)用型文本生成
應(yīng)用型文本大多為結(jié)構(gòu)化寫作,以客服類的聊天問(wèn)答、新聞撰寫等為核心場(chǎng)景。2015年發(fā)展至今,商業(yè)化應(yīng)用已較為廣泛,最為典型的是基于結(jié)構(gòu)化數(shù)據(jù)或規(guī)范格式,在特定情景類型下的文本生成,如體育新聞、金融新聞、公司財(cái)報(bào)、重大災(zāi)害等簡(jiǎn)訊寫作。據(jù)分析師評(píng)價(jià),由AI完成的新聞初稿已經(jīng)接近人類記者在30分鐘內(nèi)完成的報(bào)道水準(zhǔn)。Narrative Science 創(chuàng)始人甚至曾預(yù)測(cè),到 2030 年, 90%以上的新聞將由機(jī)器人完成。
在結(jié)構(gòu)化寫作場(chǎng)景下,代表性垂直公司包括Automated Insights(美聯(lián)社Wordsmith)、NarrativeScience、textengine.io、AX Semantics、Yseop、Arria、Retresco、Viable、瀾舟科技等。同時(shí)也是小冰公司、騰訊、百度等綜合性覆蓋AIGC領(lǐng)域公司的重點(diǎn)布局領(lǐng)域。
2)創(chuàng)作型文本生成
創(chuàng)作型文本主要適用于劇情續(xù)寫、營(yíng)銷文本等細(xì)分場(chǎng)景等,具有更高的文本開(kāi)放度和自由度,需要一定的創(chuàng)意和個(gè)性化,對(duì)生成能力的技術(shù)要求更高。
我們使用了市面上的小說(shuō)續(xù)寫,文章生成等AIGC工具。發(fā)現(xiàn)長(zhǎng)篇幅文字的內(nèi)部邏輯仍然存在較明顯的問(wèn)題、且生成穩(wěn)定性不足,尚不適合直接進(jìn)行實(shí)際使用。據(jù)聆心智能創(chuàng)始人黃民烈教授介紹,目前文字生成主要捕捉的是淺層次,詞匯上統(tǒng)計(jì)貢獻(xiàn)的問(wèn)題。但長(zhǎng)文本生成還需要滿足語(yǔ)義層次準(zhǔn)確、在篇章上連貫通順的要求,長(zhǎng)文本寫作對(duì)于議論文寫作、公文寫作等等具有重要意義。未來(lái)四到五年,可能會(huì)出現(xiàn)比較好的千字內(nèi)容。
除去本身的技術(shù)能力之外,由于人類對(duì)文字內(nèi)容的消費(fèi)并不是單純理性和基于事實(shí)的,創(chuàng)作型文本還需要特別關(guān)注情感和語(yǔ)言表達(dá)藝術(shù)。我們認(rèn)為,短期內(nèi)創(chuàng)作型文本更適合在特定的賽道下,基于集中的訓(xùn)練數(shù)據(jù)及具體的專家規(guī)則進(jìn)行場(chǎng)景落地。
在創(chuàng)作型文本領(lǐng)域,代表性的國(guó)內(nèi)外公司包括Anyword、Phrasee、Persado、Pencil、Copy.ai、Friday.ai、Retresco、Writesonic、Conversion.ai、Snazzy Al、Rasa.io、LongShot.AI、彩云小夢(mèng)等。
3)文本輔助生成
除去端到端進(jìn)行文本創(chuàng)作外,輔助文本寫作其實(shí)是目前國(guó)內(nèi)供給及落地最為廣泛的場(chǎng)景。主要為基于素材爬取的協(xié)助作用,例如定向采集信息素材、文本素材預(yù)處理、自動(dòng)聚類去重,并根據(jù)創(chuàng)作者的需求提供相關(guān)素材。盡管目前能夠提升生產(chǎn)力,但我們認(rèn)為相對(duì)于實(shí)現(xiàn)技術(shù)意義上的AI生成,能否結(jié)合知識(shí)圖譜等提供素材聯(lián)想和語(yǔ)句參考等更具有實(shí)用意義。
這部分的國(guó)內(nèi)代表產(chǎn)品包括寫作貓、Gilso寫作機(jī)器人、Get寫作、寫作狐、沃沃AI人工智能寫作。
4) 重點(diǎn)關(guān)注場(chǎng)景
長(zhǎng)期來(lái)看,我們認(rèn)為閑聊型文本交互將會(huì)成為重要潛在場(chǎng)景,例如虛擬伴侶、游戲中的NPC個(gè)性化交互等。2022年夏季上線的社交AlGC敘事平臺(tái)Hidden Door以及基干GPT.3開(kāi)發(fā)的文木探索類游戲Aldunaeon均已獲得了不錯(cuò)的消費(fèi)者反饋。隨著線上社交逐漸成為了一種常態(tài),社交重點(diǎn)向轉(zhuǎn)移AI具有其合理性,我們預(yù)估未來(lái)1-2年內(nèi)就會(huì)出現(xiàn)明顯增長(zhǎng)。目前較為典型的包括小冰公司推出的小冰島,集中在精神心理領(lǐng)域的聆心智能、開(kāi)發(fā)了AIdungeon的Latitude.io等。
2、音頻及文字一音頻生成
整體而言,此類技術(shù)可應(yīng)用于流行歌曲、樂(lè)曲、有聲書的內(nèi)容創(chuàng)作,以及視頻、游戲、影視等領(lǐng)域的配樂(lè)創(chuàng)作,大大降低音樂(lè)版權(quán)的采購(gòu)成本。我們目前最為看好的場(chǎng)景是自動(dòng)生成實(shí)時(shí)配樂(lè)、語(yǔ)音克隆以及心理安撫等功能性音樂(lè)的自動(dòng)生成。
1)TTS(Text-to-speech)場(chǎng)景
TTS在AIGC領(lǐng)域下已相當(dāng)成熟,廣泛應(yīng)用于客服及硬件機(jī)器人、有聲讀物制作、語(yǔ)音播報(bào)等任務(wù)。例如倒映有聲與音頻客戶端“云聽(tīng)”APP合作打造AI新聞主播,提供音頻內(nèi)容服務(wù)的一站式解決方案,以及喜馬拉雅運(yùn)用TTS技術(shù)重現(xiàn)單田芳聲音版本的《毛氏三兄弟》和歷史類作品。這種場(chǎng)景為文字內(nèi)容的有聲化提供了規(guī)模化能力。
目前技術(shù)上的的關(guān)鍵,在于如何通過(guò)富文本信息(如文本的深層情感、深層語(yǔ)義了解等)更好的表現(xiàn)其中的抑揚(yáng)頓挫以及基于用戶較少的個(gè)性化數(shù)據(jù)得到整體的復(fù)制能力(如小樣本遷移學(xué)習(xí))。基于深度學(xué)習(xí)的端到端語(yǔ)音合成模式也正在逐步替代傳統(tǒng)的拼接及參數(shù)法,代表模型包括WaveNet、Deep Voice及Tacotron等。
目前的垂直代表公司包括倒映有聲、科大訊飛、思必馳(DUl)、Readspeaker、DeepZen和Sonantic。
隨著內(nèi)容媒體的變遷,短視頻內(nèi)容配音已成為重要場(chǎng)景。部分軟件能夠基于文檔自動(dòng)生成解說(shuō)配音,上線有150+款包括不同方言和音色的AI智能配音主播。代表公司有九錘配音、加音、XAudioPro、剪映等。
該技術(shù)目前被應(yīng)用于虛擬歌手演唱、自動(dòng)配音等,在聲音IP化的基礎(chǔ)上,對(duì)于動(dòng)畫、電影、以及虛擬人行業(yè)有重要意義。代表公司包括標(biāo)貝科技、Modulate、overdub、replika、Replica Studios、Lovo、Voice mod. Resemble Ai、Respeecher、DeepZen、Sonantic、VoicelD、Descript。
2)樂(lè)曲/歌曲生成
AIGC在詞曲創(chuàng)作中的功能可被逐步拆解為作詞(NLP中的文本創(chuàng)作/續(xù)寫)、作曲、編曲、人聲錄制和整體混音。目前而言,AIGC已經(jīng)支持基于開(kāi)頭旋律、圖片、文字描述、音樂(lè)類型、情緒類型等生成特定樂(lè)曲。
其中,Al作曲可以簡(jiǎn)單理解為“以語(yǔ)言模型(目前以Transformer為代表,如谷歌Megenta、OpenAIJukebox、AIVA等)為中介,對(duì)音樂(lè)數(shù)據(jù)進(jìn)行雙向轉(zhuǎn)化(通過(guò)MIDI等轉(zhuǎn)化路徑)”。此方面代表性的模型包括MelodvRNN、Music Transformer。據(jù)Deepmusic介紹,為提升整體效率,在這一過(guò)程中,由于相關(guān)數(shù)據(jù)巨大往往需要對(duì)段落、調(diào)性等高維度的樂(lè)理知識(shí)進(jìn)行專業(yè)提取,而節(jié)奉、音高、音長(zhǎng)等低維度樂(lè)理信息由AI自動(dòng)完成提取。
通過(guò)這一功能,創(chuàng)作者即可得到AI創(chuàng)作的純音樂(lè)或樂(lè)曲中的主旋律。2021年末,貝多芬管弦樂(lè)團(tuán)在波恩首演人工智能譜寫完成的貝多芬未完成之作《第十交響曲》,即為AI基于對(duì)貝多芬過(guò)往作品的大量學(xué)習(xí),進(jìn)行自動(dòng)續(xù)寫。
Al編曲則指對(duì)AI基于主旋律和創(chuàng)作者個(gè)人的偏好,生成不同樂(lè)器的對(duì)應(yīng)和弦(如鼓點(diǎn)、貝斯、鋼琴等),完成整體編配。在這部分中,各樂(lè)器模型將通過(guò)無(wú)監(jiān)督模型,在特定樂(lè)曲/情緒風(fēng)格內(nèi)學(xué)習(xí)主旋律和特定要素間的映射關(guān)系,從而基于主旋律生成自身所需和弦。對(duì)于人工而言,要達(dá)到樂(lè)曲編配的職業(yè)標(biāo)準(zhǔn),需要7-10年的學(xué)習(xí)實(shí)踐。
人聲錄制則廣泛見(jiàn)于虛擬偶像的表演現(xiàn)場(chǎng)(前面所說(shuō)的語(yǔ)音克隆),通過(guò)端到端的聲學(xué)模型和神經(jīng)聲碼器完成可以簡(jiǎn)單理解為將輸入文本替換為輸入MIDI數(shù)據(jù)的聲音克隆技術(shù)。混音指將主旋律、人聲和各樂(lè)器和弦的音軌進(jìn)行渲染及混合,最終得到完整樂(lè)曲。該環(huán)節(jié)涉及的AI生成能力較少。
該場(chǎng)景下的代表企業(yè)包括Deepmusic、網(wǎng)易-有靈智能創(chuàng)作平臺(tái)、Amper Music、AIVA、Landr、IBMWatsonMusic、Magenta、Loudly、Brain.FM、Splash、Flow machines。其中,自動(dòng)編曲功能已在國(guó)內(nèi)主流音樂(lè)平臺(tái)上線,并成為相關(guān)大廠的重點(diǎn)關(guān)注領(lǐng)域。以QQ音樂(lè)為例,就已成為Amper music的API合作伙伴。
對(duì)這一部分工作而言,最大的挑戰(zhàn)在于音樂(lè)數(shù)據(jù)的標(biāo)注。在標(biāo)注階段,不僅需要需要按時(shí)期、流派、作曲家等特征,對(duì)訓(xùn)練集中樂(lè)曲的旋律、曲式結(jié)構(gòu)、和聲等特征進(jìn)行描述,還要將其有效編碼為程序語(yǔ)言。此外,還需要專業(yè)人員基于樂(lè)理進(jìn)行相關(guān)調(diào)整潤(rùn)色。以Deepmusic為例,音樂(lè)標(biāo)注團(tuán)隊(duì)一直專注在存量歌曲的音樂(lè)信息標(biāo)注工作上,目前已經(jīng)形成了全球最精確的華語(yǔ)歌曲音樂(lè)信息庫(kù),為音樂(lè)信息檢索(MIR)技術(shù)研究提供數(shù)據(jù)支持。
3)場(chǎng)景推薦
以樂(lè)曲二創(chuàng),輔助創(chuàng)作等場(chǎng)量為代表,Al編曲將在短期內(nèi)成為A音頻生成中的快速成長(zhǎng)賽道。特別是由于可以指定曲目風(fēng)格、情緒、樂(lè)器等,AIGC音樂(lè)生成對(duì)于影視劇、游戲等多樣化、乃至實(shí)時(shí)的背景音樂(lè)生成有重要意義。
3、視頻生成
視頻生成將成為近期跨模態(tài)生成領(lǐng)域的中高潛力場(chǎng)景。其背后邏輯是不同技術(shù)帶來(lái)的主流內(nèi)容形式的變化。本部分主要包括視頻屬性編輯、視頻自動(dòng)剪輯、視頻部分編輯。
1)視頻屬性編輯
例如視頻畫質(zhì)修復(fù)、刪除畫面中特定主體、自動(dòng)跟蹤主題剪輯、生成視頻特效、自動(dòng)添加特定內(nèi)容、視頻自動(dòng)美顏等。代表公司包括RunwayML、Wisecut、Adobe Sensei、Kaleido、帝視科技、CCTV AIGC、影譜科技、 Versa(不咕剪輯)、美圖影像研究院等。
2)視頻自動(dòng)剪輯
基于視頻中的畫面、聲音等多模態(tài)信息的特征融合進(jìn)行學(xué)習(xí),按照氛圍、情緒等高級(jí)語(yǔ)義限定,對(duì)滿足條件片段進(jìn)行檢測(cè)并合成。目前還主要在技術(shù)嘗試階段。典型案例包括Adobe與斯坦福共同研發(fā)的AI視頻剪輯系統(tǒng)、IBMWatson自動(dòng)剪輯電影預(yù)告片、以及Flow Machine。我國(guó)的影譜科技推出了相關(guān)產(chǎn)品,能夠基于視頻中的畫面、聲音等多模態(tài)信息的特征融合進(jìn)行學(xué)習(xí),按照氛圍、情緒等高級(jí)語(yǔ)義限定,對(duì)滿足條件片段進(jìn)行檢測(cè)并合成。
3)視頻部分生成(以Deepfake為典型代表)技術(shù)原理
視頻到視頻生成技術(shù)的本質(zhì)是基于目標(biāo)參像或視頻對(duì)源視頻進(jìn)行編輯及調(diào)試,通過(guò)基于語(yǔ)音等要素逐幀復(fù)刻,能夠完成人臉替換,人臉再現(xiàn)(人物表情或面部特征的改變)、人臉合成(構(gòu)建全新人物)甚至全身合成、虛擬環(huán)境合成等功能。
其原理本質(zhì)與圖像生成類似,強(qiáng)調(diào)將視頻切割成幀,再對(duì)每一幀的圖像進(jìn)行處理。視頻生成的流程通常可以分為三個(gè)步驟,即數(shù)據(jù)提取,數(shù)據(jù)訓(xùn)練及轉(zhuǎn)換。以人臉合成為例,首先需要對(duì)源人物及目標(biāo)人物的多角度特征數(shù)據(jù)提取,然后基于數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練并進(jìn)行圖像的合成,最后基于合成的圖像將原始視頻進(jìn)行轉(zhuǎn)換,即插入生成的內(nèi)容并進(jìn)行調(diào)試,確保每一幀之間的流程度及真實(shí)度。目前的技術(shù)正在提升修改精準(zhǔn)度與修改實(shí)時(shí)性兩方面。
4、圖像、視頻、文本間的跨模態(tài)生成
模態(tài)是指不同的信息來(lái)源或者方式。目前的模態(tài),大多是按照信息媒介所分類的音頻、文字、視覺(jué)等。而事實(shí)上在能夠?qū)ふ业胶线m的整體之后,很多信息,諸如人的觸覺(jué)、聽(tīng)覺(jué)、情緒、生理指標(biāo),甚至于不同傳感器所對(duì)應(yīng)的點(diǎn)云、紅外線、電磁波等都能夠變?yōu)橛?jì)算機(jī)可理解可處理的模態(tài)。
對(duì)人工智能而言,要更為精準(zhǔn)和綜合的觀察并認(rèn)知現(xiàn)實(shí)世界,就需要盡可能向人類的多模態(tài)能力靠攏,我們將這種能力稱為多模態(tài)學(xué)習(xí)MM(Multi-modall earnina),其中的技術(shù)分類及應(yīng)用均十分多樣,我們可以簡(jiǎn)單將其分為跨模態(tài)理解(例如通過(guò)結(jié)合街景和汽車的聲音判斷交通潛在危險(xiǎn)、結(jié)合說(shuō)話人的唇形和語(yǔ)音判定其說(shuō)話內(nèi)容)和跨模態(tài)生成(例如在參考其他圖畫的基礎(chǔ)上命題作畫:觸景生情并創(chuàng)作詩(shī)歌等)。
1)Transformer架構(gòu)的跨界應(yīng)用成為跨模態(tài)學(xué)習(xí)的重要開(kāi)端之一
Transformer架構(gòu)的核心是Self-Attention機(jī)制,該機(jī)制使得Transformer能夠有效提取長(zhǎng)序列特征,相較于CNN能夠更好的還原全局。而多模態(tài)訓(xùn)練普遍需要將圖片提取為區(qū)域序列特征,也即將視覺(jué)的區(qū)域特征和文本特征序列相匹配,形成Transformer架構(gòu)擅長(zhǎng)處理的一維長(zhǎng)序列,對(duì)Transformer的內(nèi)部技術(shù)架構(gòu)相符合。與此同時(shí). Transformer架構(gòu)還具有更高的計(jì)算效率和可擴(kuò)展性,為訓(xùn)練大型跨模態(tài)模型奠定了基礎(chǔ)。
Vision Transformer將Transformer架構(gòu)首次應(yīng)用于圖像領(lǐng)域。該模型在特定大規(guī)模數(shù)據(jù)集上的訓(xùn)練成果超出了ResNet。隨后,谷歌的VideoBERT嘗試了將Transformer拓展到“視頻-文木”領(lǐng)域。該模型能夠完成看圖猜詞和為視頻生成字幕兩項(xiàng)功能,首次驗(yàn)證了Transformer+預(yù)訓(xùn)練在多模態(tài)融合上的技術(shù)可行性。基于Transformer的多模態(tài)模型開(kāi)始受到關(guān)注,VILBERT、LXMERT、UNITER、Oscar等紛紛出現(xiàn)。
2)CLIP模型的出現(xiàn),成為跨模態(tài)生成應(yīng)用的一個(gè)重要節(jié)點(diǎn)
CLIP,ContrastiveLanguage-Image Pre-training,由OpenAl在2021年提出,圖像編碼器和文本編碼器以對(duì)比方式進(jìn)行聯(lián)合訓(xùn)練,能夠鏈接文本和圖片。可以簡(jiǎn)單將其理解為,利用CLIP測(cè)定圖片和文本描述的貼切程度。
自CLIP出現(xiàn)后,“CLIP+其他模型”在跨模態(tài)生成領(lǐng)域成為一種較為通用的做法。以Disco Diffusion為例,該模型將CLIP模型和用于生成圖像的Diffusion模型進(jìn)行了關(guān)聯(lián)。CLIP模型將持續(xù)計(jì)算Diffusion模型隨機(jī)生成噪聲與文本表征的相似度,持續(xù)迭代修改,直至生成可達(dá)到要求的圖像。
AIGC發(fā)展面臨的挑戰(zhàn)
Gartner預(yù)測(cè),到2025年,生成式人工智能將占所有生成數(shù)據(jù)的10%。根據(jù)《Generative AI :A Creative New World》的分析,AIGC有潛力產(chǎn)生數(shù)萬(wàn)億美元的經(jīng)濟(jì)價(jià)值。AIGC吸引了全世界的關(guān)注同屬,知識(shí)產(chǎn)權(quán)、技術(shù)倫理將面臨許多挑戰(zhàn)和風(fēng)險(xiǎn)。同時(shí),AIGC距離一般人工智能還有很大差距。
一、AIGC引發(fā)“創(chuàng)造性”歸屬爭(zhēng)論
在傳統(tǒng)印象中,人工智能在創(chuàng)造性工作領(lǐng)域無(wú)法與人類抗衡,主要擅長(zhǎng)計(jì)算、挖掘,聚焦在海量數(shù)據(jù)分析領(lǐng)域。人類更擅長(zhǎng)創(chuàng)新,比如詩(shī)歌、設(shè)計(jì)、編程等需要?jiǎng)?chuàng)造性的事物上。相比AI下棋,AI進(jìn)行繪畫創(chuàng)作對(duì)大眾的影響更明顯:棋類游戲具有明確的規(guī)則和定義,不需要AI具備創(chuàng)造性。但AIGC尤其是通過(guò)文字輸入可以進(jìn)行繪畫、視頻,讓沒(méi)有相關(guān)專業(yè)能力的人也能做出以假亂真的專業(yè)級(jí)作品,這就讓人對(duì)其“創(chuàng)造力”產(chǎn)生了擔(dān)憂。AI不會(huì)取代創(chuàng)作者,但可能會(huì)取代不懂AI工具的創(chuàng)作者。
二、知識(shí)產(chǎn)權(quán)引起創(chuàng)作者的擔(dān)憂
由于算法模型的進(jìn)一步完善和成本的快速下降,AIGC大規(guī)模商業(yè)化成為現(xiàn)實(shí)。過(guò)去遙不可及的專業(yè)能力已經(jīng)具備從實(shí)驗(yàn)室飛入尋常百姓家的可能。同時(shí),AIGC的快速發(fā)展和商業(yè)應(yīng)用不僅對(duì)創(chuàng)作者產(chǎn)生影響,也對(duì)大量以版權(quán)為主要收入的企業(yè)產(chǎn)生影響。具體來(lái)說(shuō):
1、AIGC很難被稱為“作者”
根據(jù)我國(guó)《著作權(quán)法》的規(guī)定,作者只能是自然人、法人或非法人組織。顯然AIGC不是法律認(rèn)可的權(quán)利主體,所以不能成為著作權(quán)的主體。然而,AIGC應(yīng)用程序?qū)ι蓤D像的版權(quán)持有不同的觀點(diǎn)。圖片到底屬于平臺(tái),完全開(kāi)源還是生成者,目前還沒(méi)有形成統(tǒng)一意見(jiàn)。
2、AIGC的“作品”仍有爭(zhēng)議
根據(jù)我國(guó)《著作權(quán)法》和《著作權(quán)法實(shí)施條例》的規(guī)定,作品是指文學(xué)、藝術(shù)、科學(xué)領(lǐng)域中具有獨(dú)創(chuàng)性并能以某種有形形式復(fù)制的智力成果。AIGC作品具有很強(qiáng)的隨機(jī)性和算法主導(dǎo)型,能夠準(zhǔn)確證明AIGC作品侵權(quán)的可能性較低。同時(shí),AIGC是否具有原創(chuàng)性也很難一概而論,個(gè)案之間差異較大。由于創(chuàng)作者每次新的創(chuàng)作都在無(wú)形中對(duì)AIGC進(jìn)行免費(fèi)培訓(xùn),這讓眾多版權(quán)機(jī)構(gòu)產(chǎn)生巨大擔(dān)憂。目前已經(jīng)有大量的藝術(shù)家和創(chuàng)作者宣布禁止AI學(xué)習(xí)自己的作品,從而保護(hù)自己的知識(shí)產(chǎn)權(quán)。Getty Images、Newgrounds等網(wǎng)站也宣布禁止上傳和出售AIGC的作品。
三、距離通用人工智能還有很大差距
雖然現(xiàn)在流行的AIGC系統(tǒng)可以快速生成圖像,但這些系統(tǒng)是否能真正理解繪畫的意義,從而根據(jù)這些含義進(jìn)行推送和決策,還是一個(gè)未知數(shù)。
一方面,AIGC系統(tǒng)不能完全將輸入文本與生成的圖像相關(guān)聯(lián)。例如,當(dāng)用戶測(cè)試AIGC系統(tǒng)并輸入“騎著馬的宇航員”和“騎著宇航員的馬”內(nèi)容時(shí),相關(guān)的AIGC系統(tǒng)很難準(zhǔn)確生成相應(yīng)的圖像。因此,當(dāng)前的AIGC系統(tǒng)還沒(méi)有深刻理解輸入文本和輸出圖像之間的關(guān)系。另一方面,AIGC系統(tǒng)很難理解生成圖像背后的世界。理解圖像背后的世界是判斷AIGC是否擁有通用人工智能的關(guān)鍵。目前,AIGC系統(tǒng)仍難以滿足相關(guān)要求。比如在Stable Diffusion中,輸入“畫一個(gè)人,并把拿東西的部分變成紫色”,在接下來(lái)的九次測(cè)試,只有一次成功完成,準(zhǔn)確率不高。顯然,Stable Diffusion不理解人的手是什么。
知名人工智能專家的調(diào)查也證實(shí)了同樣的觀點(diǎn),86.1%的人認(rèn)為當(dāng)前的AIGC系統(tǒng)不太了解世界。
四、創(chuàng)作倫理問(wèn)題尚未有效解決
部分開(kāi)源AIGC項(xiàng)目對(duì)生成圖像的監(jiān)管程度較低。一方面,部分?jǐn)?shù)據(jù)集系統(tǒng)使用私人用戶的照片進(jìn)行AI訓(xùn)練,侵權(quán)人像圖片進(jìn)行訓(xùn)練的現(xiàn)象屢禁不止。這些數(shù)據(jù)集是AIGC等圖像生成模型的正式訓(xùn)練集之一。比如一些數(shù)據(jù)集在網(wǎng)上抓取大量患者的醫(yī)學(xué)照片進(jìn)行訓(xùn)練,不做任何打碼模糊處理,對(duì)用戶的隱私保護(hù)堪憂。另一方面,用戶使用AIGC生成非法圖片,如偽造的名人照片等違禁圖片,甚至制作暴力和性相關(guān)的繪畫,LAION-5B數(shù)據(jù)庫(kù)包含色情、種族、惡意等內(nèi)容,目前海外已經(jīng)出現(xiàn)了基于Stable Diffusion模型的色情圖片生成網(wǎng)站。
由于AI本身還不具備價(jià)值判斷能力,一些平臺(tái)已經(jīng)開(kāi)始從倫理上進(jìn)行限制和干預(yù)。比如DALL·E2已經(jīng)開(kāi)始加強(qiáng)干預(yù),減少性別偏見(jiàn)的產(chǎn)生,防止訓(xùn)練模型產(chǎn)生逼真的個(gè)人面孔。然而,相關(guān)法律法規(guī)的空白和AIGC應(yīng)用開(kāi)發(fā)者本身的重視程度不足,會(huì)引起對(duì)AI創(chuàng)造倫理的擔(dān)憂。
AIGC應(yīng)用領(lǐng)域
在全球新冠肺炎疫情延宕反復(fù)的背景下,各行業(yè)對(duì)數(shù)字內(nèi)容的需求呈井噴態(tài)勢(shì),數(shù)字世界內(nèi)容的消耗與供給之間的缺口亟待彌合。憑借其真實(shí)性、多樣性、可控性和組合性,AIGC有望幫助企業(yè)提高內(nèi)容生產(chǎn)效率,為其提供更豐富多元、動(dòng)態(tài)且可交互的內(nèi)容或?qū)⒃趥髅健㈦娚獭⒂耙暋蕵?lè)等數(shù)字化程度高、內(nèi)容需求豐富的行業(yè)率先做出重大創(chuàng)新發(fā)展。
一、AIGC+傳媒:人機(jī)協(xié)同生產(chǎn),推動(dòng)媒體融合
近年來(lái),隨著全球信息化水平的加快,人工智能與傳媒產(chǎn)業(yè)的融合發(fā)展不斷升級(jí)。AIGC作為一種新的內(nèi)容生產(chǎn)方式,充分賦能媒體的內(nèi)容生產(chǎn)。寫作機(jī)器人、采訪助手、視頻字幕生成、語(yǔ)音播報(bào)、視頻集錦、人工智能合成主播等相關(guān)應(yīng)用不斷涌現(xiàn),并滲透到采集、編輯、傳播等的各個(gè)環(huán)節(jié),深刻改變著媒體的內(nèi)容生產(chǎn)方式,成為推動(dòng)媒體融合發(fā)展的重要力量。
1、采編環(huán)節(jié)
1)實(shí)現(xiàn)采訪錄音語(yǔ)音轉(zhuǎn)寫,提升傳媒工作者的工作體驗(yàn)
借助語(yǔ)音識(shí)別技術(shù),將錄制的語(yǔ)音轉(zhuǎn)換成文字,有效壓縮了稿件制作過(guò)程中錄音整理的重復(fù)工作,進(jìn)一步保證了新聞的時(shí)效性。在2022年冬奧會(huì)期間,科大訊飛的智能錄音筆通過(guò)跨語(yǔ)種的語(yǔ)音轉(zhuǎn)寫助力記者2分鐘快速出稿。
2)實(shí)現(xiàn)智能新聞寫作,提升新聞資訊的時(shí)效
基于算法自動(dòng)編譯新聞,將部分勞動(dòng)性的采編工作自動(dòng)化,幫助媒體更快、更準(zhǔn)、更智能地生產(chǎn)內(nèi)容。例如,2014年3月,洛杉磯時(shí)報(bào)網(wǎng)站的機(jī)器人記者Ouakebot在洛杉磯地震發(fā)生后僅3分鐘就撰寫并發(fā)布了相關(guān)新聞。美聯(lián)社使用的智能寫作平臺(tái)Wordsmith每秒可寫2000篇報(bào)道;中國(guó)地震臺(tái)網(wǎng)寫作機(jī)器人九寨溝地震后7秒內(nèi)完成相關(guān)新聞的采編;第一財(cái)經(jīng)“DT稿王”一分鐘可寫出 1680 字。
3)實(shí)現(xiàn)智能視頻剪輯,提升視頻內(nèi)容的價(jià)值
通過(guò)使用智能視頻編輯工具,如視頻字幕生成、視頻集錦、視頻拆條和視頻超分等,可以有效地節(jié)省人力和時(shí)間成本,并最大限度地發(fā)揮版權(quán)內(nèi)容的價(jià)值。2020年全國(guó)兩會(huì)期間,人民日?qǐng)?bào)利用“智能云剪輯師”快速生成視頻,實(shí)現(xiàn)自動(dòng)匹配字幕、人物實(shí)時(shí)跟蹤、圖像抖動(dòng)修復(fù)、快速橫屏轉(zhuǎn)豎屏等技術(shù)操作,滿足多平臺(tái)分發(fā)需求。2022年冬奧會(huì)期間,央視視頻利用AI智能內(nèi)容制作編輯系統(tǒng),高效制作發(fā)布冬奧會(huì)冰雪項(xiàng)目視頻集錦,為體育媒體版權(quán)內(nèi)容價(jià)值的深度開(kāi)發(fā)創(chuàng)造了更多可能。
2、傳播環(huán)節(jié)
AIGC的應(yīng)用主要集中在以AI合成主播為核心的新聞播報(bào)等領(lǐng)域。AI合成主播開(kāi)創(chuàng)了新聞?lì)I(lǐng)域?qū)崟r(shí)語(yǔ)音和人物動(dòng)畫合成的先河。只需輸入需要播報(bào)的文字內(nèi)容,計(jì)算機(jī)就會(huì)生成相應(yīng)的AI合成主播播報(bào)的新聞視頻,并保證視頻中人物的音頻、表情、嘴唇動(dòng)作自然一致,呈現(xiàn)出與真人主播一樣的信息傳遞效果。縱觀AI合成主播在媒體領(lǐng)域的應(yīng)用,呈現(xiàn)三方面的特點(diǎn)。
1)應(yīng)用范圍不斷拓展
目前,新華社、中央廣播電視總臺(tái)、人民日?qǐng)?bào)等國(guó)家級(jí)媒體及湖南衛(wèi)視等省市媒體,已經(jīng)開(kāi)始積極部署應(yīng)用AI合成主播,陸續(xù)推出“新小微”、“小C”等虛擬新聞主播,推動(dòng)其在新聞聯(lián)播、記者報(bào)道、天氣預(yù)報(bào)等更廣泛的場(chǎng)景中應(yīng)用,從而深度賦能全國(guó)人大、冬奧會(huì)、冬殘奧會(huì)等重大活動(dòng)傳播。
2)應(yīng)用場(chǎng)景不斷升級(jí)
除了常規(guī)的新聞播報(bào),AI合成主播開(kāi)始陸續(xù)支持多語(yǔ)種播報(bào)和手語(yǔ)播報(bào)。2020年全國(guó)兩會(huì)期間,多語(yǔ)種虛擬主播使用中、韓、日、英等多種語(yǔ)言報(bào)道新聞,實(shí)現(xiàn)一音多語(yǔ)播報(bào),將中國(guó)新聞傳遞到世界,順應(yīng)了信息化時(shí)代信息共享的發(fā)展潮流。2022年冬奧會(huì)期間,百度、騰訊等企業(yè)推出手語(yǔ)播報(bào)數(shù)字人,為數(shù)百萬(wàn)聽(tīng)障用戶提供手語(yǔ)解說(shuō),進(jìn)一步推動(dòng)了觀賽無(wú)障礙進(jìn)程。
3)應(yīng)用形態(tài)日趨完善
在形象方面,從2D逐漸拓展到3D;在驅(qū)動(dòng)范圍上,開(kāi)始從口型延伸到面部表情、肢體、手指、背景內(nèi)容素材;在內(nèi)容構(gòu)建上,從支持SaaS平臺(tái)工具建設(shè)到智能化生產(chǎn)進(jìn)行探索。如騰訊3D手語(yǔ)數(shù)智人“聆語(yǔ)”,實(shí)現(xiàn)了唇動(dòng)、面部表情、肢體動(dòng)作、手指動(dòng)作等內(nèi)容的生成,并配備了可視化動(dòng)作編輯平臺(tái),支持手語(yǔ)動(dòng)作進(jìn)行精修。
AIGC對(duì)傳媒機(jī)構(gòu)、傳媒從業(yè)者和傳媒受眾都產(chǎn)生深刻影響。對(duì)傳媒機(jī)構(gòu)來(lái)說(shuō),AIGC通過(guò)參與新聞產(chǎn)品的生產(chǎn)過(guò)程,大大提高了生產(chǎn)效率,帶來(lái)了全新的視覺(jué)和交互體驗(yàn);豐富新聞報(bào)道形式,加快媒體數(shù)字化轉(zhuǎn)型,推動(dòng)傳媒向智媒轉(zhuǎn)變。對(duì)傳媒從業(yè)者來(lái)說(shuō),AIGC可助力生產(chǎn)更具人文關(guān)懷、社會(huì)意義和經(jīng)濟(jì)價(jià)值的新聞作品:將部分勞動(dòng)性的采編播工作自動(dòng)化,使其更加專注于需要深度思考和創(chuàng)造力的工作內(nèi)容,如新聞特寫、深度報(bào)道和專題報(bào)道等,這些都是需要發(fā)揮人類在準(zhǔn)確分析事物和妥善處理情感元素方面優(yōu)勢(shì)的細(xì)分領(lǐng)域。對(duì)傳媒受眾來(lái)說(shuō),AIGC的應(yīng)用可以使其在更短的時(shí)間內(nèi)以更豐富多樣的形式獲取新聞內(nèi)容,提高其獲取新聞信息的時(shí)效性和便捷性;降低傳媒行業(yè)的技術(shù)門檻,促進(jìn)媒體受眾有更多參與內(nèi)容生產(chǎn)的機(jī)會(huì),大大增強(qiáng)他們的參與感。
二、AIGC+電商:推進(jìn)虛實(shí)交融,營(yíng)造沉浸體驗(yàn)
隨著數(shù)字技術(shù)的發(fā)展和應(yīng)用,消費(fèi)的升級(jí)和加速,沉浸式購(gòu)物體驗(yàn)成為電商領(lǐng)域的發(fā)展方向。AIGC正加速商品 3D 模型、虛擬主播乃至虛擬貨場(chǎng)的構(gòu)建。通過(guò)結(jié)合AR、VR等新技術(shù),AIGC可以實(shí)現(xiàn)音頻、視頻等多感官交互的沉浸式購(gòu)物體驗(yàn)。
1、生成商品 3D 模型用于商品展示和虛擬試用,提升線上購(gòu)物體驗(yàn)
基于不同角度的商品圖片,通過(guò)視覺(jué)生成算法自動(dòng)生成商品的3D幾何模型和紋理,輔以“看、試、穿、穿”的在線模擬,提供貼近實(shí)物的差異化網(wǎng)購(gòu)體驗(yàn),幫助高效提升用戶轉(zhuǎn)化。百度、華為等公司推出了商品自動(dòng)化的3D建模服務(wù),支持分鐘級(jí)進(jìn)行商品的3D拍攝和生成,精度可達(dá)毫米級(jí)。與傳統(tǒng)的2D展示相比,3D模型可以720°展示商品主體的外觀,可以大大減少用戶選擇和溝通的時(shí)間,提升用戶體驗(yàn),快速促進(jìn)商品成交。
同時(shí),生成的3D產(chǎn)品模型還可以用于線上試衣,高度還原了產(chǎn)品或服務(wù)的試衣體驗(yàn),讓消費(fèi)者有更多機(jī)會(huì)接觸到產(chǎn)品或服務(wù)的絕對(duì)價(jià)值。比如阿里在2021年4月推出天貓家裝城3D版。通過(guò)為商家提供3D設(shè)計(jì)工具和產(chǎn)品3D模型AI生成服務(wù),幫助商家快速搭建3D購(gòu)物空間,支持消費(fèi)者自助做家裝,為消費(fèi)者提供沉浸式的“云購(gòu)物”體驗(yàn)。數(shù)據(jù)顯示,3D購(gòu)物平均轉(zhuǎn)化率為70%,高于行業(yè)平均水平9倍。與去年同期相比,正常引導(dǎo)客戶單價(jià)增長(zhǎng)超過(guò)200%,商品退貨率明顯下降。
此外,不少品牌企業(yè)也開(kāi)始在虛擬試衣方向進(jìn)行探索和嘗試,如優(yōu)衣庫(kù)虛擬試衣、阿迪達(dá)斯虛擬試衣鞋、周大福虛擬試衣珠寶、Gucci 虛擬試戴手表和眼、宜家虛擬家具搭配、保時(shí)捷虛擬試駕等雖然目前仍然采用傳統(tǒng)的手工建模方式,但隨著AIGC技術(shù)的不斷進(jìn)步,預(yù)計(jì)未來(lái)將會(huì)出現(xiàn)更多的消費(fèi)工具,從而逐步降低3D建模的門檻和成本,幫助虛擬試穿應(yīng)用大規(guī)模商業(yè)化。
2、打造虛擬主播,賦能直播帶貨
基于視覺(jué)、語(yǔ)音、文字生成技術(shù),打造虛擬主播為觀眾提供24小時(shí)不間斷的商品推薦和在線服務(wù)能力,降低了商家直播的門檻。與直播相比,虛擬主播有三大優(yōu)勢(shì):
1)虛擬主播可以填補(bǔ)真人主播直播間隙,讓直播間不斷輪播,不僅為用戶提供了更靈活的觀看時(shí)間和更便捷的購(gòu)物體驗(yàn),也為合作商家創(chuàng)造了更大的商業(yè)增量。如歐萊雅、飛利浦、完美日記等品牌的虛擬主播一般會(huì)在凌晨0點(diǎn)上線,直播近9個(gè)小時(shí)與真人主播形成24小時(shí)無(wú)縫直播服務(wù)。
2)虛擬化的品牌主播更能加速店鋪或品牌年輕化進(jìn)程,拉近與新消費(fèi)者的距離,塑造元宇宙時(shí)代的店鋪形象,未來(lái)可以應(yīng)用到元宇宙中更多的虛擬場(chǎng)景,實(shí)現(xiàn)多卷層傳播。比如彩妝品牌“卡姿蘭”推出自己的品牌虛擬形象,并作為其天貓旗艦店的日常虛擬主播導(dǎo)購(gòu)引入直播間。同時(shí),擁有虛擬品牌IP形象的傳統(tǒng)企業(yè),可直接利用現(xiàn)有形象快速轉(zhuǎn)型為虛擬品牌主播。比如2020年5月海爾直播大促期間,知名的海爾兄弟虛擬IP來(lái)到直播間,與主持人和粉絲互動(dòng),播放量達(dá)到數(shù)千萬(wàn)。
3)虛擬主播人設(shè)更穩(wěn)定可控。在頭部主播有限并且可能“人設(shè)崩塌”的情況下,虛擬主播人設(shè)、言行等由品牌方掌握,比真人明星的可控性、安全性更強(qiáng)。品牌不必?fù)?dān)心虛擬形象人設(shè)崩塌,為品牌帶來(lái)負(fù)面新聞、差評(píng)及資金損失。
3、賦能線上商城和線下秀場(chǎng)加速演變,為消費(fèi)者提供全新的購(gòu)物場(chǎng)景
從2D影像重建場(chǎng)景的3D幾何結(jié)構(gòu),實(shí)現(xiàn)虛擬貨場(chǎng)的快速、低成本、規(guī)模化建設(shè),將有效降低商家搭建3D購(gòu)物空間的門檻和成本,為一些原本高度倚重線下門店的行業(yè)打開(kāi)線上線下融合的想象空間,為消費(fèi)者提供線上線下融合的全新消費(fèi)體驗(yàn)。目前,一些品牌已經(jīng)開(kāi)始嘗試建立虛擬空間。例如,奢侈品公司Gucci在百年品牌慶典中將線下的Gucci Garden Archetypes展覽搬到了游戲Roblox上,并推出了為期兩周的虛擬展覽,5個(gè)主題展廳的內(nèi)容與現(xiàn)實(shí)展覽相互對(duì)應(yīng)。2021年7月,阿里巴巴首次展示了其虛擬現(xiàn)實(shí)計(jì)劃“Buy+”,并在購(gòu)物現(xiàn)場(chǎng)提供360°虛擬開(kāi)放購(gòu)物體驗(yàn)。2021年11月,Nike 和Roblox 合作推出虛擬世界Nikeland,面向所有Roblox用戶開(kāi)放。隨著基于圖像的三維重建技術(shù)在Google Maps的沉浸式視圖功能中的成功應(yīng)用,虛擬貨場(chǎng)的自動(dòng)構(gòu)建將在未來(lái)得到更好的應(yīng)用和發(fā)展。
三、AIGC+影視:拓展創(chuàng)作空間,提升作品質(zhì)量
隨著影視行業(yè)的快速發(fā)展,從前期創(chuàng)作、中期拍攝到后期制作的流程問(wèn)題也隨之顯露。有一些開(kāi)發(fā)痛點(diǎn),比如高質(zhì)量劇本相對(duì)缺乏,制作成本高,部分作品質(zhì)量有待提高,急需升級(jí)。AIGC技術(shù)的應(yīng)用可以激發(fā)影視劇本創(chuàng)作的思路,拓展影視角色和場(chǎng)景創(chuàng)作的空間,大幅提升影視產(chǎn)品的后期制作質(zhì)量,有助于影視作品文化價(jià)值和經(jīng)濟(jì)價(jià)值的最大化。
1、AIGC為劇本創(chuàng)作提供新思路
通過(guò)對(duì)海量劇本數(shù)據(jù)的分析總結(jié),按照預(yù)設(shè)的風(fēng)格快速制作劇本,創(chuàng)作者進(jìn)行二次篩選加工,以此激發(fā)創(chuàng)作者靈感,拓寬創(chuàng)作思路,縮短創(chuàng)作周期。早在2016年6月,由紐約大學(xué)利用人工智能編寫的電影劇本《Sunspring》拍攝制作入圍48小時(shí)(Sci-FiLondon)48小時(shí)挑戰(zhàn)賽前十名。2020年,美國(guó)查普曼大學(xué)的學(xué)生使用OpenAl的大模型GPT-3創(chuàng)作了一個(gè)劇本并制作短片《律師》。國(guó)內(nèi)部分垂直科技公司開(kāi)始提供智能劇本制作相關(guān)服務(wù),如海馬輕帆推出的“小說(shuō)轉(zhuǎn)劇本”智能寫作功能,服務(wù)了包括《你好,李煥英》《流浪地球》等爆款作品在內(nèi)的3萬(wàn)多集戲劇劇本,8000多部電影/網(wǎng)絡(luò)電影劇本,500多萬(wàn)部網(wǎng)絡(luò)小說(shuō)。
2、AIGC 擴(kuò)展角色和場(chǎng)景創(chuàng)作空間
1)通過(guò)人臉、語(yǔ)音等相關(guān)內(nèi)容的人工智能合成,實(shí)現(xiàn)“數(shù)字復(fù)活”已故演員、替換“劣跡藝人”、多語(yǔ)言譯制片音畫同步、演員角色年齡的跨越、高難度動(dòng)作合成等,減少由于演員自身局限對(duì)影視作品的影響。比如在央視紀(jì)錄片《創(chuàng)新中國(guó)》中,央視和科大訊飛利用人工智能算法,學(xué)習(xí)已故配音演員李易過(guò)往紀(jì)錄片的聲音數(shù)據(jù),根據(jù)紀(jì)錄片手稿合成配音,最后通過(guò)后期剪輯優(yōu)化,讓李易的聲音重現(xiàn)。2020年播出的《了不起的兒科醫(yī)生》中,主要人物的教育事件影響了影視作品的宣傳和發(fā)行。作品采用智能影視變臉技術(shù)替換主要角色,減少影視作品創(chuàng)作過(guò)程中的損失。2021年,英國(guó)公司Flawless推出可視化工具TrueSync,解決多語(yǔ)言翻譯影片中人物唇型不同步的問(wèn)題。它可以通過(guò)AI深度視頻合成技術(shù)精準(zhǔn)調(diào)整演員的五官,讓演員的口型與不同語(yǔ)言的配音或字幕相匹配。
2)通過(guò)人工智能合成虛擬物理場(chǎng)景,可以生成實(shí)際拍攝不到或成本過(guò)高的場(chǎng)景,大大拓寬了影視作品的想象邊界,給觀眾帶來(lái)更好的視覺(jué)效果和聽(tīng)覺(jué)體驗(yàn)。比如2017年的《熱血長(zhǎng)安》,劇中大量場(chǎng)景都是人工智能技術(shù)虛擬生成的。前期工作人員收集了大量的場(chǎng)景數(shù)據(jù),通過(guò)特效人員的數(shù)字建模,制作出模擬的拍攝場(chǎng)景,演員在綠屏工作室進(jìn)行表演。結(jié)合實(shí)時(shí)摳像技術(shù),將演員的動(dòng)作與虛擬場(chǎng)景融合,最終生成視頻。
3、AIGC 賦能影視剪輯,升級(jí)后期制作
1)實(shí)現(xiàn)影視圖像的修復(fù)和還原,提高圖像數(shù)據(jù)的清晰度,保證影視作品的畫質(zhì)。如中影數(shù)字制作基地和中國(guó)科技技術(shù)大學(xué)聯(lián)合開(kāi)發(fā)的基于AI的圖像處理系統(tǒng)“中影·神思”,成功修原《厲害了,我的國(guó)》《馬路天使》等多部電視劇。使用AI神思系統(tǒng),修復(fù)一部電影的時(shí)間可以縮短四分之三,成本可以降低一半。同時(shí),愛(ài)奇藝、優(yōu)酷、西瓜視頻等流媒體平臺(tái)已經(jīng)開(kāi)始探索AI修復(fù)經(jīng)典影視作品作為新的增長(zhǎng)領(lǐng)域。
2)實(shí)現(xiàn)電影預(yù)告片的生成。IBM旗下的人工智能系統(tǒng) Watson 在學(xué)習(xí)了數(shù)百部驚悚片預(yù)告片的視聽(tīng)技術(shù)后,從90分鐘的《Morgan》電影中挑選出符合驚悚預(yù)告片特點(diǎn)的電影鏡頭,并制作出一段6分鐘的預(yù)告片。雖然這部預(yù)告片還需要制作方修改才能最終完成,但卻將預(yù)告片的制作周期從一個(gè)月左右縮短到了24小時(shí)。
3)實(shí)現(xiàn)視頻內(nèi)容從2D到3D的自動(dòng)轉(zhuǎn)換。聚力推出的人工智能3D內(nèi)容自動(dòng)制作平臺(tái)“鄭融”支持影視作品的維度轉(zhuǎn)換,將影院級(jí)3D轉(zhuǎn)換效率1000倍以上。
四、AIGC+娛樂(lè):擴(kuò)展輻射邊界,獲得發(fā)展動(dòng)能
在數(shù)字經(jīng)濟(jì)時(shí)代,娛樂(lè)不僅拉近了產(chǎn)品服務(wù)與消費(fèi)者之間的距離,也間接滿足了現(xiàn)代人對(duì)歸屬感的渴望,其重要性與日俱增。借助AIGC技術(shù),娛樂(lè)產(chǎn)業(yè)可以通過(guò)創(chuàng)造有趣的圖像或音視頻、打造虛擬偶像、開(kāi)發(fā)C端用戶的數(shù)字頭像等方式,迅速擴(kuò)大輻射邊界,以更容易被消費(fèi)者接受的方式獲得新的發(fā)展動(dòng)力。
1、實(shí)現(xiàn)有趣的冬季圖像或音視頻的生成,激發(fā)用戶參與熱情
在圖像和視頻生成方面,以AI換臉為代表的AIGC應(yīng)用極大地滿足了用戶獵奇的需求,成為打破圈子的利器。比如FaceAPp、ZAO、Avatarifv等圖片視頻合成應(yīng)用一經(jīng)推出,立刻在網(wǎng)上引發(fā)熱潮,登上了App Store免費(fèi)下載榜的榜首;國(guó)慶70周年,人民日?qǐng)?bào)新媒體中心推出互動(dòng)生成56張國(guó)家照片和人像的應(yīng)用屏幕朋友圈,合成照片總數(shù)超過(guò)7.38億張;2020年3 月,騰訊推出化身游戲中的“和平精英”與火箭少女 101 同框合影的活動(dòng),這些互動(dòng)的內(nèi)容極大地激發(fā)出了用戶的情感,帶來(lái)了社交傳播的迅速破圈。在語(yǔ)音合成方面,變聲增加互動(dòng)娛樂(lè)性。比如QQ等社交軟件,和平精英等游戲都集成了變聲功能,支持用戶體驗(yàn)大叔、蘿莉等不同聲音,讓交流成為一種好玩的游戲。
2、打造虛擬偶像,釋放IP價(jià)值
1)實(shí)現(xiàn)與用戶共創(chuàng)合成歌曲,不斷加深粉絲黏性。以初音未來(lái)和洛天依為代表的“虛擬歌姬”,都是基于 VOCALOID 語(yǔ)音合成引擎軟件為基礎(chǔ)創(chuàng)造出來(lái)的虛擬人物,由真人提供聲源,再由軟件合成人聲,都是能夠讓粉絲深度參與共創(chuàng)的虛擬歌手。以洛天依為例,任何人通過(guò)聲庫(kù)創(chuàng)作詞曲,都能達(dá)到“洛天依演唱一首歌”的效果。從 2012年 7月 12 日洛天依出道至今十年的時(shí)間內(nèi),音樂(lè)人以及粉絲已為洛天依創(chuàng)作了超過(guò)一萬(wàn)首作品,通過(guò)為用戶提供更多想象和創(chuàng)作空間的同時(shí),與粉絲建立了更深刻聯(lián)系。
2)通過(guò)AI合成音視頻動(dòng)畫,支持虛擬偶像在更多樣化的場(chǎng)景中實(shí)現(xiàn)內(nèi)容。隨著音視頻合成、全息投影、AR、VR等技術(shù)的成熟,虛擬偶像實(shí)現(xiàn)場(chǎng)景逐漸多元化。目前可以通過(guò)演唱會(huì)、音樂(lè)專輯、廣告代言、直播、周邊衍生產(chǎn)品來(lái)實(shí)現(xiàn)。同時(shí)隨著虛擬偶像的商業(yè)價(jià)值被不斷發(fā)掘,品牌與虛擬 IP 的聯(lián)動(dòng)意愿也會(huì)增加。如由魔琺科技與次世文化共同打造的網(wǎng)紅翎 Ling于2020年5月出道至現(xiàn)在已先后與VOGUE、特斯拉、GUCCI等品牌展開(kāi)合作。
3、開(kāi)發(fā) C端用戶數(shù)字化身,布局消費(fèi)元宇宙
自2017年蘋果手機(jī)發(fā)布Animoii以來(lái),“數(shù)字化身”技術(shù)的迭代經(jīng)歷了從單一的卡通動(dòng)物頭像到AI的發(fā)展,用戶擁有了更多的創(chuàng)作自主權(quán)和更生動(dòng)的圖像庫(kù)。各大科技巨頭都在積極探索“數(shù)字化身”的相關(guān)應(yīng)用,加速布局“虛擬數(shù)字世界”與現(xiàn)實(shí)世界大融合的“未來(lái)”。例如,百度在2020年世界互聯(lián)網(wǎng)大會(huì)上展示了基于3D虛擬圖像生成和虛擬圖像驅(qū)動(dòng)等AI技術(shù)設(shè)計(jì)動(dòng)態(tài)虛擬角色的能力。只要在現(xiàn)場(chǎng)拍一張照片,就能在幾秒鐘內(nèi)迅速生成一個(gè)能模仿“我”的表情和動(dòng)作的虛擬形象。2021年云起大會(huì)開(kāi)發(fā)者展區(qū),阿里云展示了最新技術(shù)——卡通智能繪畫項(xiàng)目,吸引了近2000名體驗(yàn)者,成為大會(huì)爆款。阿里云智能繪畫采用隱變量映射的技術(shù)方案,通過(guò)探索輸入人臉圖片的顯著特征,如眼睛大小、鼻型等,自動(dòng)生成具有個(gè)人特征的虛擬圖像。同時(shí),還可以跟蹤用戶的面部表情,生成實(shí)時(shí)動(dòng)畫,讓普通人也能有機(jī)會(huì)創(chuàng)造自己的卡通形象。在可預(yù)見(jiàn)的未來(lái),“數(shù)字虛擬人”作為虛擬世界中用戶個(gè)人身份和互動(dòng)的載體,將進(jìn)一步與人們的生產(chǎn)生活相結(jié)合,并將帶動(dòng)虛擬商品經(jīng)濟(jì)的發(fā)展。
五、AIGC+其他:推進(jìn)數(shù)實(shí)融合,加快產(chǎn)業(yè)升級(jí)
除以上行業(yè)之外,教育、金融、醫(yī)療、工業(yè)等各行各業(yè)的 AIGC應(yīng)用也都在快速發(fā)展。
1、教育領(lǐng)域,AIGC 賦予教育材料新活力
相比閱讀和講座等傳統(tǒng)方式,AIGC為教育工作者提供了新的工具,讓原本抽象、扁平的教科書具體化、立體化,以更生動(dòng)、更有說(shuō)服力的方式向?qū)W生傳遞知識(shí)。例如,制作歷史人物直接與學(xué)生對(duì)話的視頻,可以為一個(gè)沒(méi)有吸引力的演講注入新的活力:合成逼真的虛擬教師,使數(shù)字化教學(xué)更具互動(dòng)性和趣味性等。
2、金融領(lǐng)域,AIGC 助力實(shí)現(xiàn)降本增效
一方面AIGC可以實(shí)現(xiàn)金融資訊和產(chǎn)品介紹視頻內(nèi)容的自動(dòng)化制作,提高金融機(jī)構(gòu)的內(nèi)容運(yùn)營(yíng)效率;另一方面,AIGC可以用來(lái)創(chuàng)建一個(gè)具有音頻和視頻兩個(gè)通道的虛擬數(shù)字客戶服務(wù),這可以使金融服務(wù)更加有溫度。醫(yī)療領(lǐng)域,AIGC賦能診療全流程。在輔助診斷方面,AIGC可用于提高醫(yī)學(xué)影像質(zhì)量,錄入電子病歷等,解放醫(yī)生的智力和精力,讓醫(yī)生的資源集中在核心業(yè)務(wù)上,從而提高醫(yī)生的專業(yè)能力。在康復(fù)方面,AIGC可以為失聲者合成語(yǔ)音音頻,為殘疾人提供肢體投影,為精神病患者提供醫(yī)療陪伴等,通過(guò)人性化的方式安撫患者,可以緩解其情緒,加快其康復(fù)。
3、工業(yè)領(lǐng)域,AIGC提升產(chǎn)業(yè)效率和價(jià)值
一是融入到CAD(計(jì)算機(jī)輔助設(shè)計(jì))中,大大縮短了工程設(shè)計(jì)周期。AIGC可以通過(guò)自動(dòng)化工程設(shè)計(jì)中重復(fù)、耗時(shí)和低級(jí)的任務(wù)自動(dòng)化,將過(guò)去需要數(shù)千小時(shí)的工程設(shè)計(jì)縮短到幾分鐘。同時(shí)支持衍生設(shè)計(jì)的生成,為工程師或設(shè)計(jì)師提供靈感。此外,它還支持在設(shè)計(jì)中引入變化,以實(shí)現(xiàn)動(dòng)態(tài)模擬。例如,寶馬通過(guò)AIGC在其BMW VISION NEXT 100概念車中開(kāi)發(fā)了動(dòng)態(tài)功能性外觀和內(nèi)飾。二是加快數(shù)字孿生系統(tǒng)建設(shè)。通過(guò)將基于物理環(huán)境形成的數(shù)字幾何圖形快速轉(zhuǎn)換成實(shí)時(shí)參數(shù)化的3D建模數(shù)據(jù),可以高效地創(chuàng)建現(xiàn)實(shí)世界中的工廠、工業(yè)設(shè)備和生產(chǎn)線的數(shù)字孿生系統(tǒng)。總的來(lái)說(shuō),AIGC正在向與其他產(chǎn)業(yè)的深度融合發(fā)展,其相關(guān)應(yīng)用正在加速滲透到經(jīng)濟(jì)社會(huì)的方方面面。
AIGC發(fā)展展望
一、核心技術(shù)持續(xù)演進(jìn)
1、從真實(shí)可控向多樣組合發(fā)展
從技術(shù)上看,目前AIGC的相關(guān)算法已經(jīng)具備了真實(shí)再現(xiàn)和創(chuàng)作某一類給定內(nèi)容的能力,相關(guān)模型在簡(jiǎn)單場(chǎng)景的內(nèi)容生成上也取得了不錯(cuò)的成績(jī)。然而,面對(duì)多樣性變化和復(fù)雜場(chǎng)景內(nèi)容生成的挑戰(zhàn),現(xiàn)有的AIGC算法仍需進(jìn)一步改進(jìn)。例如,目前AIGC在圖像生成和編輯方面取得了驚人的成就,如生成高清人臉圖像或數(shù)字人頭像,相關(guān)算法已經(jīng)能夠以假亂真。相比較而言,動(dòng)畫視頻的動(dòng)態(tài)復(fù)雜性和可能復(fù)雜程度以幾何倍數(shù)增長(zhǎng),高質(zhì)量的視頻創(chuàng)作還有巨大的提升空間。同時(shí),僅僅依靠單個(gè)生成器的內(nèi)容生成,是遠(yuǎn)遠(yuǎn)不足以構(gòu)建一個(gè)理想的數(shù)字世界甚至元宇宙的。AIGC科技的下一個(gè)發(fā)展方向?qū)⑹峭ㄟ^(guò)不同制作者之間的互動(dòng)進(jìn)行內(nèi)容創(chuàng)作。通過(guò)整體的、多模態(tài)的復(fù)雜場(chǎng)景創(chuàng)作,AIGC將有望實(shí)現(xiàn)更多的知性內(nèi)容,進(jìn)而反哺核心及相關(guān)領(lǐng)域,促進(jìn)共同發(fā)展。
2、從本地化集中式向大規(guī)模分布式發(fā)展
1)AIGC離不開(kāi)大規(guī)模分布式深度學(xué)習(xí)技術(shù)和多智能體強(qiáng)化學(xué)習(xí)技術(shù)
大規(guī)模分布式AIGC的開(kāi)發(fā)將有助于高效利用GPU算力,將計(jì)算流程拆解到一系列計(jì)算平臺(tái)和邊緣計(jì)算設(shè)備上,通過(guò)多設(shè)備分布式計(jì)算加快內(nèi)容生產(chǎn)進(jìn)程,提高生成效率和質(zhì)量。目前,以Google、微軟為代表的人工智能公司已經(jīng)開(kāi)始布局下一代超大規(guī)模人工智能模型的分布式計(jì)算平臺(tái),如Pathways、DeepSpeed等。,以解決大規(guī)模模型訓(xùn)練中計(jì)算能力不足、資源利用率低、無(wú)法高效制作模型等問(wèn)題。
2)在分布式計(jì)算的框架下,大規(guī)模的多智能體網(wǎng)絡(luò)可以通過(guò)合作和競(jìng)爭(zhēng)來(lái)完成個(gè)體無(wú)法完成的任務(wù)
AIGC作為構(gòu)建數(shù)字世界乃至元宇宙的重要生產(chǎn)工具,需要模擬現(xiàn)實(shí)世界中復(fù)雜的大規(guī)模多智能體網(wǎng)絡(luò)系統(tǒng),如動(dòng)物群體、社會(huì)網(wǎng)絡(luò)、城市綜合體等。通過(guò)對(duì)大規(guī)模分布式多智能體算法的研究,探索多智能體的擴(kuò)展性、安全性、穩(wěn)定性和遷移性將是未來(lái)的重點(diǎn)方向之一。
二、關(guān)鍵能力顯著增強(qiáng)
隨著AIGC核心技術(shù)的不斷發(fā)展,其內(nèi)容孿生、內(nèi)容編輯和內(nèi)容創(chuàng)作三大基礎(chǔ)能力將顯著增強(qiáng)。
1、隨著渲染技術(shù)、仿真加速、XR suite和開(kāi)發(fā)組件等技術(shù)的提升,基于內(nèi)容孿生的數(shù)字孿生能力可以更真實(shí)地將現(xiàn)實(shí)世界復(fù)制到虛擬世界,再現(xiàn)人物更豐滿、物體更逼真、細(xì)節(jié)更豐富的虛擬圖像,并依托新一代傳感器和云邊緣進(jìn)行協(xié)作進(jìn)行實(shí)時(shí)動(dòng)態(tài)更新。
2、依托內(nèi)容編輯的數(shù)字陪伴能力,將進(jìn)一步打通現(xiàn)實(shí)世界與虛擬世界的雙向通道。通過(guò)現(xiàn)實(shí)世界和虛擬世界的雙向交流,將現(xiàn)實(shí)世界中的物理問(wèn)題進(jìn)行抽象和數(shù)字化,然后轉(zhuǎn)化為虛擬世界中的計(jì)算問(wèn)題,將計(jì)算的最優(yōu)解以物理形式輸出到現(xiàn)實(shí)世界。未來(lái),依托虛擬優(yōu)化、智能控制、可信認(rèn)證等關(guān)鍵技術(shù)的提升,數(shù)字伴侶將進(jìn)一步拓展在現(xiàn)實(shí)世界中發(fā)現(xiàn)和解決問(wèn)題的能力,同時(shí)降低成本,提高產(chǎn)量。
3、基于內(nèi)容創(chuàng)作的數(shù)字原生能力潛力將得到真正釋放。隨著未來(lái)AIGC數(shù)字原生能力的大幅提升,基于更先進(jìn)算法的人工智能技術(shù)將使AIGC擺脫對(duì)專業(yè)生成內(nèi)容(PGC)和用戶生成內(nèi)容(UGC)的依賴,完全自主創(chuàng)作內(nèi)容,充分釋放其創(chuàng)作潛力。內(nèi)容將以高質(zhì)量、多樣性、高自由度持續(xù)輸出,填補(bǔ)目前專業(yè)生成內(nèi)容(PGC)和用戶生成內(nèi)容(UGC)的容量和監(jiān)管空白。尤其是隨著人工智能技術(shù)的不斷發(fā)展和代選,AIGC將實(shí)現(xiàn)從輔助內(nèi)容生成到獨(dú)立內(nèi)容生成的跨越,這將極大滿足未來(lái)消費(fèi)者對(duì)內(nèi)容數(shù)量和質(zhì)量的雙重剛性需求。
三、產(chǎn)品類型逐漸豐富
近年來(lái),隨著元宇宙概念的興起和科學(xué)技術(shù)的快速發(fā)展,數(shù)字人是未來(lái)AIGC應(yīng)用的一個(gè)重要細(xì)分領(lǐng)域。數(shù)字人作為現(xiàn)實(shí)與虛擬世界的交互媒介,可以通過(guò)其獨(dú)特的人格、性格、思維、職業(yè)等輔以專屬的創(chuàng)意內(nèi)容,打破傳統(tǒng)的物理和時(shí)空界限,通過(guò)VR、AR等技術(shù)和新一代智能終端設(shè)備,為用戶帶來(lái)豐富的沉浸式體驗(yàn)。能夠自主生成內(nèi)容的數(shù)字人將是構(gòu)建人機(jī)融合、數(shù)實(shí)融合的未來(lái)世界的最佳載體,也將是未來(lái)人類構(gòu)建“自生成、自更新”的新元宇宙世界的必由之路。
隨著AI相關(guān)技術(shù)的不斷發(fā)展,數(shù)字人發(fā)展的自由度將大大提高,不同個(gè)人和企業(yè)的數(shù)字人將更具可識(shí)別性和獨(dú)立性,開(kāi)發(fā)成本將大大降低以促進(jìn)數(shù)字人的普遍發(fā)展。同時(shí),具有獨(dú)立內(nèi)容生成能力的“智能化”乃至“智慧化”的數(shù)字人,意味著無(wú)限的內(nèi)容創(chuàng)作。元宇宙將為人類提供一個(gè)自由探索的廣闊空間,人類將不再受真實(shí)時(shí)空的束縛。基于AIGC的超宇宙將不再依賴于現(xiàn)實(shí)世界的投射和剪輯,而是脫離現(xiàn)實(shí)世界進(jìn)行自我生成、自我發(fā)展和自我更新。
隨著人工智能的不斷發(fā)展和進(jìn)步,AIGC模式將不再局限于文本、音頻和視覺(jué)。多重信息感知和認(rèn)知能力,如嗅覺(jué)、觸覺(jué)、味覺(jué)、感覺(jué)咸味等將以數(shù)字形式傳輸,并將指導(dǎo)人工智能進(jìn)行內(nèi)容創(chuàng)作。在未來(lái)的某一天,人工智能能否創(chuàng)造出除了苦樂(lè)參半之外的另一種味道,還是個(gè)未知數(shù)。
四、場(chǎng)景應(yīng)用趨于多元
目前,AIGC已經(jīng)廣泛應(yīng)用于金融、媒體、娛樂(lè)、電子商務(wù)等多個(gè)領(lǐng)域,未來(lái)其應(yīng)用場(chǎng)景將進(jìn)一步多樣化。比如在“AIGC+數(shù)據(jù)科學(xué)”領(lǐng)域,可以自動(dòng)生成具有安全性、標(biāo)簽化、預(yù)處理的標(biāo)準(zhǔn)數(shù)據(jù)以滿足日益饑渴的人工智能模型。
目前人工智能產(chǎn)生的數(shù)據(jù)在所有數(shù)據(jù)中占比不到1%。根據(jù)Gartner的預(yù)測(cè),到2025年,人工智能產(chǎn)生的數(shù)據(jù)將占10%;在“AIGC+游戲”領(lǐng)域,通過(guò)訓(xùn)練,AI可以生成針對(duì)不同玩家階層的游戲指南和教學(xué)手冊(cè),并且無(wú)重復(fù)自動(dòng)打造不同難度、高互動(dòng)性、高可玩性的劇情和關(guān)卡,無(wú)需重復(fù);在“AIGC+醫(yī)學(xué)”領(lǐng)域,相關(guān)模型可以克服醫(yī)學(xué)數(shù)據(jù)的稀缺性,自動(dòng)搜索具有特定性質(zhì)的分子結(jié)構(gòu),從而大大降低新藥研發(fā)和臨床試驗(yàn)的研究成本。
根據(jù)Gartner的預(yù)測(cè),到2025年,超過(guò)30%的藥物和材料將通過(guò)生成式人工智能(AIGC的工具之一)被發(fā)現(xiàn);在“AIGC+安防”領(lǐng)域,在公共場(chǎng)所或活動(dòng)中,人工智能會(huì)自動(dòng)生成用戶頭像,保護(hù)用戶的數(shù)據(jù)安全和個(gè)人隱私;在“AIGC+藝術(shù)”領(lǐng)域,除目前流行的NFT(非同質(zhì)化代幣),AIGC還可以涉及繪畫、作曲、演唱、編劇、設(shè)計(jì)等,不同于這些子領(lǐng)域輔助內(nèi)容生成的現(xiàn)狀。未來(lái),這些領(lǐng)域的自生成內(nèi)容經(jīng)過(guò)人工智能創(chuàng)作后將達(dá)到人類水平,無(wú)需人工優(yōu)化即可投放市場(chǎng)。
除了應(yīng)用場(chǎng)景的橫向擴(kuò)展,場(chǎng)景之間的融合和交互也是未來(lái)的發(fā)展趨勢(shì)之一。比如,通過(guò)“文旅+游戲”,以高度沉浸式的體驗(yàn)深度挖掘傳統(tǒng)文化旅游產(chǎn)業(yè)的新特征,用新穎、不重復(fù)、極具吸引力的互動(dòng)游戲吸引年輕消費(fèi)者深度挖掘傳統(tǒng)文化旅游的深刻內(nèi)涵,激發(fā)傳統(tǒng)文化旅游產(chǎn)業(yè)的新活力;通過(guò)“教育+政務(wù)”,AIGC可以根據(jù)政策導(dǎo)向,為不同年齡、不同學(xué)歷、不同職業(yè)、不同地域的人群生成不同類型的教育和科普內(nèi)容,極大地均衡教育資源,更好地普及全民教育,營(yíng)造全民科學(xué)氛圍,提高全民科學(xué)素養(yǎng);通過(guò)“商業(yè)+藝術(shù)”,AIGC可以創(chuàng)造更具人文關(guān)懷和當(dāng)代意義的數(shù)字館藏。數(shù)字收藏將從缺乏實(shí)質(zhì)性內(nèi)涵的虛擬物品轉(zhuǎn)化為具有特定紀(jì)念意義的虛擬化身,從而深度挖掘藝術(shù)的商業(yè)潛力,進(jìn)而反哺和推動(dòng)未來(lái)藝術(shù)的高質(zhì)量發(fā)展。
五、生態(tài)建設(shè)日益完善
隨著 AIGC 的不斷成熟,以標(biāo)準(zhǔn)規(guī)范、技術(shù)研發(fā)、內(nèi)容創(chuàng)作、行業(yè)應(yīng)用、資產(chǎn)服務(wù)為核心的生態(tài)體系架構(gòu)將日趨完善,無(wú)論是以 AIGC賦能產(chǎn)業(yè)升級(jí)還是以 AIGC 自主釋放價(jià)值都將在此框架下健康有序發(fā)展。標(biāo)準(zhǔn)規(guī)范為 AIGC 生態(tài)構(gòu)建了從技術(shù)、內(nèi)容、應(yīng)用、服務(wù)、監(jiān)管的全過(guò)程一體化標(biāo)準(zhǔn)體系,促進(jìn) AIGC 在合理合規(guī)合法的框架下良
性發(fā)展。
同時(shí),在核心技術(shù)持續(xù)演進(jìn)和關(guān)鍵能力顯著增強(qiáng)的背景下,性能更強(qiáng)大、邏輯更智能的人工智能算法將被應(yīng)用于 AIGC,技術(shù)研發(fā)的不斷創(chuàng)新將強(qiáng)有力地推動(dòng)內(nèi)容創(chuàng)作,提高生成內(nèi)容質(zhì)量,使內(nèi)容更接近人類智力水平和宙美標(biāo)準(zhǔn),同時(shí)應(yīng)用于各類行業(yè)各種場(chǎng)景。AIGC 的繁榮發(fā)展將促進(jìn)資產(chǎn)服務(wù)快速跟進(jìn),通過(guò)對(duì)生成內(nèi)容的合規(guī)評(píng)估、資產(chǎn)管理、產(chǎn)權(quán)保護(hù)、交易服務(wù)等構(gòu)成 AIGC 的完整生態(tài)鏈,并進(jìn)行價(jià)值重塑,充分釋放其商業(yè)潛力。隨著 5G、云計(jì)算、VR、AR 等前沿技術(shù)的快速發(fā)展和新一代智能終端設(shè)備的研發(fā)創(chuàng)新,完整的 AIGC生態(tài)鏈?zhǔn)俏磥?lái)釋放數(shù)據(jù)要素紅利、推動(dòng)傳統(tǒng)產(chǎn)業(yè)升級(jí)、促進(jìn)數(shù)字經(jīng)濟(jì)發(fā)展、構(gòu)建數(shù)實(shí)融合一體、創(chuàng)造元宇宙世界最重要的推動(dòng)力之一。
藍(lán)海大腦AIGC高性能計(jì)算一體機(jī)采用 Intel 、AMD處理器,突破傳統(tǒng)風(fēng)冷散熱模式,采用風(fēng)冷和液冷混合散熱模式——服務(wù)器內(nèi)主要熱源 CPU 利用液冷冷板進(jìn)行冷卻,其余熱源仍采用風(fēng)冷方式進(jìn)行冷卻。通過(guò)這種混合制冷方式,可大幅提升服務(wù)器散熱效率,同時(shí),降低主要熱源 CPU 散熱所耗電能,并增強(qiáng)服務(wù)器可靠性;支持VR、AI加速計(jì)算;深受廣大深度學(xué)習(xí)AICG領(lǐng)域工作者的喜愛(ài)。
審核編輯黃昊宇
-
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7565瀏覽量
88868 -
人工智能
+關(guān)注
關(guān)注
1799文章
47960瀏覽量
241192 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5523瀏覽量
121710 -
AIGC
+關(guān)注
關(guān)注
1文章
369瀏覽量
1651
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
#新年新氣象,大家新年快樂(lè)!#AIGC入門及鴻蒙入門
AIGC入門及鴻蒙入門
AIGC系統(tǒng)中多個(gè)模型的切換調(diào)用方案探索

AIGC是什么及其應(yīng)用 AIGC的定義和工作原理
東芝PC級(jí)機(jī)械硬盤助力新聞工作者有效存儲(chǔ)數(shù)據(jù)
GPU深度學(xué)習(xí)應(yīng)用案例
AIGC生成內(nèi)容的優(yōu)勢(shì)與挑戰(zhàn)
AIGC算法解析及其發(fā)展趨勢(shì)
AIGC技術(shù)在內(nèi)容創(chuàng)作中的應(yīng)用
7月2日|百度專家開(kāi)講AIGC,光明網(wǎng)和科普中國(guó)多平臺(tái)直播

科普講座 | 讓AIGC提高你的專業(yè)表達(dá)和創(chuàng)作能力

高效、彈性、免運(yùn)維,一站式解決 AIGC 的華為云函數(shù)工作流
中車總經(jīng)理尚敬榮獲2024年“最美鐵道科技工作者”稱號(hào)

華為云 FunctionGraph 函數(shù)工作流:打破 AIGC 部署困局,釋放企業(yè)無(wú)限潛能

評(píng)論