在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

阿里提出低計算量語音合成系統,速度提升4倍

DPVg_AI_era ? 來源:未知 ? 作者:龔婷 ? 2018-03-12 16:19 ? 次閱讀

阿里巴巴語音交互智能團隊提出一種基于深度前饋序列記憶網絡的語音合成系統。該系統在達到與基于雙向長短時記憶單元的語音合成系統一致的主觀聽感的同時,模型大小只有后者的四分之一,且合成速度是后者的四倍,非常適合于對內存占用和計算效率非常敏感的端上產品環境。該研究已入選語音頂會ICASSP會議Oral論文,本文帶來詳細解讀。

研究背景

語音合成系統主要分為兩類,拼接合成系統和參數合成系統。其中參數合成系統在引入了神經網絡作為模型之后,合成質量和自然度都獲得了長足的進步。另一方面,物聯網設備(例如智能音箱和智能電視)的大量普及也對在設備上部署的參數合成系統提出了計算資源的限制和實時率的要求。本工作引入的深度前饋序列記憶網絡可以在保持合成質量的同時,有效降低計算量,提高合成速度。

我們使用基于雙向長短時記憶單元(BLSTM)的統計參數語音合成系統作為基線系統。與其他現代統計參數語音合成系統相似,我們提出的基于深度前饋序列記憶網絡(DFSMN)的統計參數語音合成系統也是由3個主要部分組成,聲音合成器(vocoder),前端模塊和后端模塊,如上圖所示。我們使用開源工具WORLD作為我們的聲音合成器,用來在模型訓練時從原始語音波形中提取頻譜信息、基頻的對數、頻帶周期特征(BAP)和清濁音標記,也用來在語音合成時完成從聲學參數到實際聲音的轉換。前端模塊用來對輸入的文本進行正則化和詞法分析,我們把這些語言學特征編碼后作為神經網絡訓練的輸入。后端模塊用來建立從輸入的語言學特征到聲學參數的映射,在我們的系統中,我們使用DFSMN作為后端模塊。

深度前饋序列記憶網絡

緊湊前饋序列記憶網絡(cFSMN)作為標準的前饋序列記憶網絡(FSMN)的改進版本,在網絡結構中引入了低秩矩陣分解,這種改進簡化了FSMN,減少了模型的參數量,并加速了模型的訓練和預測過程。

上圖給出了cFSMN的結構的圖示。對于神經網絡的每一個cFSMN層,計算過程可表示成以下步驟①經過一個線性映射,把上一層的輸出映射到一個低維向量②記憶模塊執行計算,計算當前幀之前和之后的若干幀和當前幀的低維向量的逐維加權和③把該加權和再經過一個仿射變換和一個非線性函數,得到當前層的輸出。三個步驟可依次表示成如下公式。

與循環神經網絡(RNNs,包括BLSTM)類似,通過調整記憶模塊的階數,cFSMN有能力捕捉序列的長程信息。另一方面,cFSMN可以直接通過反向傳播算法(BP)進行訓練,與必須使用沿時間反向傳播算法(BPTT)進行訓練的RNNs相比,訓練cFSMN速度更快,且較不容易受到梯度消失的影響。

對cFSMN進一步改進,我們得到了深度前饋序列記憶網絡(DFSMN)。DFSMN利用了在各類深度神經網絡中被廣泛使用的跳躍連接(skip-connections)技術,使得執行反向傳播算法的時候,梯度可以繞過非線性變換,即使堆疊了更多DFSMN層,網絡也能快速且正確地收斂。對于DFSMN模型,增加深度的好處有兩個方面。一方面,更深的網絡一般來說具有更強的表征能力,另一方面,增加深度可以間接地增大DFSMN模型預測當前幀的輸出時可以利用的上下文長度,這在直觀上非常有利于捕捉序列的長程信息。具體來說,我們把跳躍連接添加到了相鄰兩層的記憶模塊之間,如下面公式所示。由于DFSMN各層的記憶模塊的維數相同,跳躍連接可由恒等變換實現。

我們可以認為DFSMN是一種非常靈活的模型。當輸入序列很短,或者對預測延時要求較高的時候,可以使用較小的記憶模塊階數,在這種情況下只有當前幀附近幀的信息被用來預測當前幀的輸出。而如果輸入序列很長,或者在預測延時不是那么重要的場景中,可以使用較大的記憶模塊階數,那么序列的長程信息就能被有效利用和建模,從而有利于提高模型的性能。

除了階數之外,我們為DFSMN的記憶模塊增加了另一個超參數,步長(stride),用來表示記憶模塊提取過去或未來幀的信息時,跳過多少相鄰的幀。這是有依據的,因為與語音識別任務相比,語音合成任務相鄰幀之間的重合部分甚至更多。

上文已經提到,除了直接增加各層的記憶模塊的階數之外,增加模型的深度也能間接增加預測當前幀的輸出時模型可以利用的上下文的長度,上圖給出了一個例子。

實驗

在實驗階段,我們使用的是一個由男性朗讀的中文小說數據集。我們把數據集劃分成兩部分,其中訓練集包括38600句朗讀(大約為83小時),驗證集包括1400句朗讀(大約為3小時)。所有的語音數據采樣率都為16k赫茲,每幀幀長為25毫秒,幀移為5毫秒。我們使用WORLD聲音合成器逐幀提取聲學參數,包括60維梅爾倒譜系數,3維基頻的對數,11維BAP特征以及1維清濁音標記。我們使用上述四組特征作為神經網絡訓練的四個目標,進行多目標訓練。前端模塊提取出的語言學特征,共計754維,作為神經網絡訓練的輸入。

我們對比的基線系統是基于一個強大的BLSTM模型,該模型由底層的1個全連接層和上層的3個BLSTM層組成,其中全連接層包含2048個單元,BLSTM層包含2048個記憶單元。該模型通過沿時間反向傳播算法(BPTT)訓練,而我們的DFSMN模型通過標準的反向傳播算法(BP)訓練。包括基線系統在內,我們的模型均通過逐塊模型更新過濾算法(BMUF)在2塊GPU上訓練。我們使用多目標幀級別均方誤差(MSE)作為訓練目標。

所有的DFSMN模型均由底層的若干DFSMN層和上的2個全連接層組成,每個DFSMN層包含2048個結點和512個投影結點,而每個全連接層包含2048個結點。在上圖中,第三列表示該模型由幾層DFSMN層和幾層全連接層組成,第四列表示該模型DFSMN層的記憶模塊的階數和步長。由于這是FSMN這一類模型首次應用在語音合成任務中,因此我們的實驗從一個深度淺且階數小的模型,即模型A開始(注意只有模型A的步長為1,因為我們發現步長為2始終稍好于步長為1的相應模型)。從系統A到系統D,我們在固定DFSMN層數為3的同時逐漸增加階數。從系統D到系統F,我們在固定階數和步長為10,10,2,2的同時逐漸增加層數。從系統F到系統I,我們固定DFSMN層數為10并再次逐漸增加階數。在上述一系列實驗中,隨著DFSMN模型深度和階數的增加,客觀指標逐漸降低(越低越好),這一趨勢非常明顯,且系統H的客觀指標超過了BLSTM基線。

另一方面,我們也做了平均主觀得分(MOS)測試(越高越好),測試結果如上圖所示。主觀測試是通過付費眾包平臺,由40個母語為中文的測試人員完成的。在主觀測試中,每個系統生成了20句集外合成語音,每句合成語音由10個不同的測試人員獨立評價。在平均主觀得分的測試結果表明,從系統A到系統E,主觀聽感自然度逐漸提高,且系統E達到了與BLSTM基線系統一致的水平。但是,盡管后續系統客觀指標持續提高,主觀指標只是在系統E得分的上下波動,沒有進一步提高。

結論

根據上述主客觀測試,我們得到的結論是,歷史和未來信息各捕捉120幀(600毫秒)是語音合成聲學模型建模所需要的上下文長度的上限,更多的上下文信息對合成結果沒有直接幫助。與BLSTM基線系統相比,我們提出的DFSMN系統可以在獲得與基線系統一致的主觀聽感的同時,模型大小只有基線系統的1/4,預測速度則是基線系統的4倍,這使得該系統非常適合于對內存占用和計算效率要求很高的端上產品環境,例如在各類物聯網設備上部署。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4804

    瀏覽量

    102628
  • 物聯網
    +關注

    關注

    2927

    文章

    45788

    瀏覽量

    387072
  • 智能語音交互

    關注

    0

    文章

    22

    瀏覽量

    2964

原文標題:ICASSP Oral 論文:阿里提出低計算量語音合成系統,速度提升4倍

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    DeepSeek最新論文:訓練速度提升9,推理速度快11

    是上一代Grok2的15左右。在Benchmarks中,Grok3毫無懸念成功地領先Deepseek R1、o3 mini等對手。 ? 不過用如此大規模的算力集群,花費上一代15計算資源投入,業界認為
    的頭像 發表于 02-20 11:25 ?1854次閱讀
    DeepSeek最新論文:訓練<b class='flag-5'>速度</b><b class='flag-5'>提升</b>9<b class='flag-5'>倍</b>,推理<b class='flag-5'>速度</b>快11<b class='flag-5'>倍</b>!

    大模型時代的新燃料:大規模擬真多風格語音合成數據集

    大模型充分學習到語音的發音規律、語義特征、語境等信息,從而提升語音識別、語音合成等關鍵能力,提供更加準確、自然、智能的
    的頭像 發表于 04-30 16:17 ?170次閱讀

    智能收銀語音交互新標桿—WT3000T8語音合成芯片TTS技術應用解析

    一、行業應用背景在零售業態智能化轉型的浪潮中,收銀設備正經歷從功能型向服務型轉變的關鍵階段。WT3000T8語音合成芯片應運而生,專為滿足新零售場景下智能收銀終端的語音交互需求而設計。該芯片通過創新
    的頭像 發表于 04-24 08:45 ?121次閱讀
    智能收銀<b class='flag-5'>語音</b>交互新標桿—WT3000T8<b class='flag-5'>語音</b><b class='flag-5'>合成</b>芯片TTS技術應用解析

    MVG推出SpeedProbe DL解決方案:有源相控陣天線校準速度提升至5

    系統高達5的校準速度,顯著提升有源相控陣天線在防務領域的測試效率與性能。 MVG銷售總監 Per Noren 表示:“SpeedProbe DL解決方案 在IDEX展會上
    發表于 04-21 16:35 ?160次閱讀
    MVG推出SpeedProbe DL解決方案:有源相控陣天線校準<b class='flag-5'>速度</b><b class='flag-5'>提升</b>至5<b class='flag-5'>倍</b>

    WT3000TX語音合成芯片介紹V1

    、解碼功能,可支持用戶進行語音合成語音播放,具有低成本、低功耗、高可靠性、通用性強等特點,現有WT3000T8-32NQFN32(體積小4*4
    發表于 04-17 08:43 ?0次下載

    YX5p多功能單芯片CMOS語音合成4位微控制器中文手冊

    4 位微控制器,具備 4 信道語音 / Tone/Midi 合成功能,采用高音質 ADPCM 算法,最高采樣率達 44.1kHz,有 16 階音量控制,提供 PWM 和 DAC 兩種
    發表于 04-03 11:18 ?0次下載

    【CW32模塊使用】語音合成播報模塊

    SYN6288E 中文語音合成芯片是北京宇音天下科技有限公司在 2010 年初推出的一款性/價比更高的 SYN6288 芯片的基礎上更改封裝方式的,效果更自然的一款中高端語音合成芯片
    的頭像 發表于 03-29 17:25 ?515次閱讀
    【CW32模塊使用】<b class='flag-5'>語音</b><b class='flag-5'>合成</b>播報模塊

    芯資訊|WT3000T8語音合成芯片:高性價比語音交互解決方案

    在智能終端設備快速普及的當下,語音交互已成為提升用戶體驗的關鍵功能。廣州唯創電子推出的WT3000T8語音合成芯片,憑借其卓越的語音處理能力
    的頭像 發表于 03-24 09:05 ?248次閱讀
    芯資訊|WT3000T8<b class='flag-5'>語音</b><b class='flag-5'>合成</b>芯片:高性價比<b class='flag-5'>語音</b>交互解決方案

    ADA4522-4輸出±21.5V矩形波電壓,上升/下降時間過長速度慢怎么解決?

    一款PCB通過LT2688(DAC)輸出±4.3V矩形波電壓,然后通過ADA4522-4(OP-AMP)將輸出5放大至±21.5V; LT2688(DAC)輸出電壓從-4.3V→+4.3V、切換
    發表于 03-24 07:55

    WT3000T8-32N語音合成TTS芯片:小體積、強性能,重塑智能語音交互體驗

    在萬物互聯的智能化浪潮中,語音交互已成為人機交互的核心入口。廣州唯創電子推出的WT3000T8-32N語音合成芯片,憑借其4×4mm超小封裝
    的頭像 發表于 03-21 09:20 ?287次閱讀
    WT3000T8-32N<b class='flag-5'>語音</b><b class='flag-5'>合成</b>TTS芯片:小體積、強性能,重塑智能<b class='flag-5'>語音</b>交互體驗

    無人機延時目標跟蹤識別智算系統

    33幀/s,搭配30FPS攝像頭,實現實時制導圖像的計算識別與姿態調整跟蹤。三、 低成本4k輕光學吊艙: 1)強大的影響系統: 低成本輕量化光學吊艙搭載1/1.7索尼影像傳感器,擁有
    發表于 03-06 15:48

    可以在OpenVINO?工具套件的視覺處理單元上推斷語音合成模型嗎?

    無法確定是否可以在 VPU 上推斷語音合成模型
    發表于 03-06 08:29

    EMMC存儲速度如何提升

    提升eMMC(Embedded Multi Media Card)的存儲速度,可以從多個方面入手。以下是一些有效的方法: 一、硬件優化 啟用8線eMMC驅動 : 默認的4線模式可能不如8線模式快
    的頭像 發表于 12-25 09:31 ?1552次閱讀

    阿里云海外收入五年增長20

    旗下公司,是全球領先的云計算及人工智能科技公司。提供云服務器、云數據庫、云安全、云存儲、企業應用及行業解決方案服務。 據阿里云智能國際事業部總經理袁千透露,阿里云海外收入五年增長了20
    的頭像 發表于 12-11 15:55 ?393次閱讀

    聲發射系統的技術指標:最高采樣速度的選擇

    雖然理論上采樣速度越高獲得的數字信號越完整,但考慮到實際應用的成本,無法實現無限高甚至過高,只能選擇合理(即滿足應用要求)的采樣速度。例如,采樣速度40兆,數據就比采樣
    的頭像 發表于 08-26 17:30 ?645次閱讀
    聲發射<b class='flag-5'>系統</b>的技術指標:最高采樣<b class='flag-5'>速度</b>的選擇
    主站蜘蛛池模板: 日本免费黄色 | 亚洲人成电影院在线观看 | 男女免费视频 | 亚洲欧美高清在线 | 天天干中文字幕 | 一色屋精品免费视频 视频 一色屋免费视频 | 亚洲成人免费在线观看 | 亚洲电影一区二区三区 | 日韩一级生活片 | 天天做天天干 | 午夜片 飘香香影院 | 毛片一区二区三区 | 亚洲系列_1页_mmyy11 | 久久青草精品免费资源站 | 人与禽一级一级毛片 | 午夜视频播放 | 久久久香蕉视频 | 欧美黄色xxx | 欧美三级黄视频 | 手机在线观看国产精选免费 | 久久综合九九亚洲一区 | 69久久| 久久99热不卡精品免费观看 | 俺去啦网婷婷 | 国产天天操 | 色黄污在线看黄污免费看黄污 | 亚洲激情视频 | 免费国产在线视频 | 你懂的在线观看视频 | 天天干夜夜骑 | 日日噜噜噜夜夜爽爽狠狠视频 | 手机看片日韩高清1024 | 77成人| 国内视频一区二区三区 | 国模在线观看 | 亚洲色图久久 | 在线免费观看色片 | 在线观看亚洲专3333 | 亚洲综合色婷婷中文字幕 | 欧美整片第一页 | 唐人社电亚洲一区二区三区 |