美國當地時間2024年2月15日 ,OpenAI正式發布文生視頻模型Sora ,并發布了48個文生視頻案例和技術報告 ,正式入局視頻生成領域 。Sora能夠根據提示詞生成60s的連貫視頻,“碾壓”了行業目前大概只有平均“4s”的視頻生成長度
Sora可以根據用戶的文本提示創建最長60秒的逼真視頻,該模型了解這些物體在物理世界中的存在方式,可以深度模擬真實物理世界,能生成具有多個角色、包含特定運動的復雜場景。繼承了DALL-E 3的畫質和遵循指令能力,能理解用戶在提示中提出的要求。
Sora可以快速制作最長一分鐘、準確反映用戶提示、可一鏡到底的視頻 (其他AI視頻工具還在突破幾秒內的連貫性 ),視頻可以呈現“具有多個角色、特定類型的動作、以及主題和背景的準確細節的復雜場景”
Sora對于需要制作視頻的藝術家、電影制片人或學生帶來無限可能,其是OpenAI“教AI理解和模擬運動中的物理世界”計劃的其中一步 ,也標志著人工智能在理解真實世界場景并與之互動的能力方面實現飛躍。
-
人工智能
+關注
關注
1804文章
48820瀏覽量
247278 -
模型
+關注
關注
1文章
3500瀏覽量
50103 -
OpenAI
+關注
關注
9文章
1204瀏覽量
8685 -
Sora
+關注
關注
0文章
83瀏覽量
447
發布評論請先 登錄
評論