Stability AI是一家主要以人工智能生成的視覺效果而聞名的公司,它推出了一個名為Stable audio的文本到音頻生成人工智能平臺。
Stable Audio使用擴散模型,與該公司更受歡迎的圖像平臺Stable diffusion的AI模型相同,但使用音頻而非圖像進行訓練。用戶可以使用它為任何項目生成歌曲或背景音頻。
音頻擴散模型傾向于生成固定長度的音頻,這對音樂制作來說很糟糕,因為歌曲的長度可能不同。Stability AI的新平臺允許用戶發出不同長度的聲音,要求公司對音樂進行訓練,并在歌曲的開始和結束時間周圍添加文本元數據。
同時,它可以實現實時的音頻生成,無需等待長時間的渲染過程。Stability AI 宣稱,Stable Audio 模型可以在一秒內渲染出 95 秒的立體聲音頻,并且只需要一個 NVIDIA A100 GPU。
并且,Stable Audio是一個開源的項目,任何人都可以免費使用和修改。Stability AI 希望通過開源的方式促進 AI 領域的創新和發展,并讓更多人享受到 AI 技術帶來的便利和樂趣。
該公司在一份聲明中表示:“Stable Audio代表了Stability AI生成音頻研究實驗室Harmonai的尖端音頻生成研究。我們會繼續改進我們的模型架構、數據集和訓練程序,以提高輸出質量、可控性、推理速度和輸出長度。”
文本到音頻的生成并不是什么新鮮事,因為生成人工智能領域的其他大牌一直在玩弄這個概念。Meta于8月發布了AudioCraft,這是一套生成的人工智能模型,有助于根據提示創建聽起來自然的ERM、聲音和音樂。到目前為止,它只提供給研究人員和一些音頻專業人士。谷歌的MusicLM也可以讓人們產生聲音,但只對研究人員開放。
審核編輯:彭菁
-
音頻
+關注
關注
29文章
3029瀏覽量
83154 -
AI
+關注
關注
88文章
34589瀏覽量
276236 -
人工智能
+關注
關注
1805文章
48843瀏覽量
247448 -
模型
+關注
關注
1文章
3500瀏覽量
50134 -
數據集
+關注
關注
4文章
1223瀏覽量
25321
原文標題:Stability AI發布AI音頻平臺Stable Audio
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
評論