說(shuō)話人識(shí)別和驗(yàn)證系統(tǒng)的應(yīng)用與日俱增。該技術(shù)的使用有助于控制和訪問(wèn)自動(dòng)駕駛汽車(chē)、計(jì)算機(jī)、手機(jī)和其他設(shè)備。還建立了各種機(jī)器學(xué)習(xí)模型來(lái)保護(hù)說(shuō)話人識(shí)別和驗(yàn)證系統(tǒng)。這是通過(guò)分析聲音的情緒反應(yīng)和壓力水平來(lái)檢測(cè)對(duì)個(gè)人的威脅以及觸發(fā)他們安全的機(jī)制來(lái)實(shí)現(xiàn)的。
介紹
說(shuō)話者和驗(yàn)證系統(tǒng)根據(jù)一個(gè)人的聲音或講話的特性來(lái)識(shí)別說(shuō)話者。人類(lèi)每天都習(xí)慣于識(shí)別和響應(yīng)說(shuō)話者,但通過(guò)技術(shù)進(jìn)行語(yǔ)音識(shí)別是復(fù)雜的,需要大量計(jì)算。由于數(shù)字信號(hào)處理和計(jì)算機(jī)系統(tǒng)的進(jìn)步,自動(dòng)說(shuō)話人識(shí)別系統(tǒng)的使用在過(guò)去十年中變得普遍。
說(shuō)話人識(shí)別系統(tǒng)的組成部分
說(shuō)話人識(shí)別系統(tǒng)包括三個(gè)部分:
說(shuō)話人識(shí)別:從一組登記的說(shuō)話人中查明說(shuō)話人的身份。目標(biāo)是從已存儲(chǔ)的幾個(gè)模型中找到合適的揚(yáng)聲器。(檢查多人)
說(shuō)話人驗(yàn)證:驗(yàn)證未知聲音是否屬于某個(gè)說(shuō)話人。當(dāng)一個(gè)人將自己標(biāo)識(shí)為 John Doe/Jane Doe 時(shí),說(shuō)話人驗(yàn)證系統(tǒng)會(huì)將語(yǔ)音數(shù)據(jù)與錄制的模型進(jìn)行比較,以確定說(shuō)話人的身份是否與他/她聲稱(chēng)的身份相符。(檢查聲稱(chēng)的身份)
說(shuō)話者分類(lèi):根據(jù)語(yǔ)音的特殊特征(基于從語(yǔ)音內(nèi)容中提取的特征)將包含說(shuō)話者語(yǔ)音的音頻流劃分為同質(zhì)段/時(shí)間幀,以對(duì)說(shuō)話者進(jìn)行身份分類(lèi)。
說(shuō)話人驗(yàn)證系統(tǒng)的應(yīng)用
訪問(wèn)控制:一個(gè)人必須說(shuō)出一個(gè)特定的短語(yǔ)來(lái)表明自己的身份,才能訪問(wèn)受限場(chǎng)所和特權(quán)信息。
交易認(rèn)證:一個(gè)人必須說(shuō)出一個(gè)特定的短語(yǔ)來(lái)識(shí)別他/她自己,以啟動(dòng)電話銀行/信用卡授權(quán)或類(lèi)似的交易。
揚(yáng)聲器驗(yàn)證系統(tǒng)基礎(chǔ)知識(shí)
圖 1:揚(yáng)聲器驗(yàn)證基礎(chǔ)
Front-End 部分捕獲說(shuō)話者的聲音,并將語(yǔ)音信號(hào)轉(zhuǎn)換為一組代表說(shuō)話者特征的特征向量。后端部分將特征向量與說(shuō)話者的存儲(chǔ)模型(即通用背景模型,如下所述)進(jìn)行比較,以確定它們匹配的精確程度以驗(yàn)證說(shuō)話者的身份。一旦說(shuō)話者的聲音與數(shù)據(jù)庫(kù)中的聲音模型匹配,他們就可以訪問(wèn)。
用于記錄和創(chuàng)建“揚(yáng)聲器模型”的機(jī)制的變化增加了復(fù)雜性。由于可變的語(yǔ)音/語(yǔ)音保真度,說(shuō)話人識(shí)別/驗(yàn)證變得更加復(fù)雜。例如,在銀行使用高分辨率、高保真錄音機(jī)創(chuàng)建揚(yáng)聲器模型時(shí),語(yǔ)音保真度會(huì)有所不同,但基于語(yǔ)音的交易是使用具有嘈雜背景的手機(jī)完成的。
說(shuō)話人識(shí)別/驗(yàn)證流程圖
最初創(chuàng)建了一個(gè)大型模型數(shù)據(jù)庫(kù),其中包含許多說(shuō)話者和來(lái)自這些說(shuō)話者的數(shù)小時(shí)語(yǔ)音數(shù)據(jù)。錄音包含來(lái)自不同來(lái)源的各種高保真和低保真語(yǔ)音輸入。分析從大量語(yǔ)音數(shù)據(jù)中提取的特征并訓(xùn)練模型以創(chuàng)建通用的男性/女性模型。該模型數(shù)據(jù)庫(kù)被稱(chēng)為“通用背景模型”(UBM)。
然后,創(chuàng)建想要識(shí)別/驗(yàn)證自己的說(shuō)話者模型數(shù)據(jù)庫(kù)。該模型數(shù)據(jù)庫(kù)被稱(chēng)為“揚(yáng)聲器模型”。該模型是從“通用背景模型”派生/創(chuàng)建的,該模型對(duì)通用男性/女性聲音進(jìn)行分類(lèi)。目標(biāo)揚(yáng)聲器型號(hào)與 UBM 略有不同。這些差異被記錄并保存在“揚(yáng)聲器模型”數(shù)據(jù)庫(kù)中。
現(xiàn)在,當(dāng)這個(gè)人說(shuō):“我是 John Doe”時(shí),這個(gè)語(yǔ)音片段被記錄下來(lái)并分割成 10 毫秒的幀,并通過(guò)特征提取模型,產(chǎn)生語(yǔ)音的一些特征/特征。
圖 2:說(shuō)話人驗(yàn)證流程圖
如果 John Doe 想要驗(yàn)證他的名字,我們將從輸入語(yǔ)音“I am John Doe”中提取的特征輸入到他的說(shuō)話人模型(特征提取)中,該模型確定特征匹配的水平并計(jì)算它是“John多伊'。
然后,對(duì)于相同的輸入聲音,“我是 John Doe”,我們將提取的特征輸入到通用背景模型中,以確定特征匹配的水平,并得出他是普通男性聲音的可能性。
決策的似然比由上述兩個(gè)似然比得出。接受/拒絕決定是基于根據(jù)呼叫者是“John Doe”的可能性和呼叫者是普通男性的可能性(基于通用背景模型)計(jì)算的某個(gè)閾值做出的。
eInfochips 為基于語(yǔ)音和音頻的中間件提供嵌入式系統(tǒng)和軟件開(kāi)發(fā)、移植、優(yōu)化、支持和維護(hù)解決方案,其中包括:DSP 域中的編碼器、解碼器、預(yù)處理和后處理算法。還提供語(yǔ)音/音頻相關(guān)工具和服務(wù)的維護(hù)和開(kāi)發(fā)。eInfochips 還迎合了多核平臺(tái)上自定義算法的實(shí)現(xiàn)和并行化。
作者:瑞詩(shī)凱詩(shī)·阿加什
Rhishikesh Agashe 是 eInfochips 技術(shù)團(tuán)隊(duì)的一員,他在 IT 行業(yè)擁有近 19 年的經(jīng)驗(yàn)。4 年的企業(yè)家生涯和 15 年的嵌入式領(lǐng)域經(jīng)驗(yàn),其中他的大部分經(jīng)驗(yàn)是在嵌入式媒體處理領(lǐng)域,他參與了音頻和語(yǔ)音算法的實(shí)施。
審核編輯:湯梓紅
-
識(shí)別系統(tǒng)
+關(guān)注
關(guān)注
1文章
146瀏覽量
19031
發(fā)布評(píng)論請(qǐng)先 登錄
DSP嵌入式說(shuō)話人識(shí)別系統(tǒng)設(shè)計(jì)方案
基于DSP嵌入式說(shuō)話人識(shí)別系統(tǒng)該怎么設(shè)計(jì)?
基于Cohort相似度的說(shuō)話人識(shí)別
基于DTW的編碼域說(shuō)話人識(shí)別研究
DSP嵌入式說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

DSP嵌入式說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

基于FPGA的說(shuō)話人識(shí)別系統(tǒng)設(shè)計(jì)
DSP嵌入式說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)方案

基于MAP+CMLLR的說(shuō)話人識(shí)別中發(fā)聲力度問(wèn)題

一種新的說(shuō)話人識(shí)別系統(tǒng)框架
基于CS的說(shuō)話人識(shí)別算法

基于TDSDM642EVM數(shù)字處理芯片實(shí)現(xiàn)實(shí)時(shí)說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)

基于GMM的實(shí)時(shí)說(shuō)話人識(shí)別系統(tǒng)

評(píng)論