在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

說(shuō)話人識(shí)別和驗(yàn)證系統(tǒng)解決方案

陳敏 ? 來(lái)源:rstech_rd ? 作者:rstech_rd ? 2022-07-26 10:16 ? 次閱讀

說(shuō)話人識(shí)別和驗(yàn)證系統(tǒng)的應(yīng)用與日俱增。該技術(shù)的使用有助于控制和訪問(wèn)自動(dòng)駕駛汽車(chē)、計(jì)算機(jī)、手機(jī)和其他設(shè)備。還建立了各種機(jī)器學(xué)習(xí)模型來(lái)保護(hù)說(shuō)話人識(shí)別和驗(yàn)證系統(tǒng)。這是通過(guò)分析聲音的情緒反應(yīng)和壓力水平來(lái)檢測(cè)對(duì)個(gè)人的威脅以及觸發(fā)他們安全的機(jī)制來(lái)實(shí)現(xiàn)的。

介紹

說(shuō)話者和驗(yàn)證系統(tǒng)根據(jù)一個(gè)人的聲音或講話的特性來(lái)識(shí)別說(shuō)話者。人類(lèi)每天都習(xí)慣于識(shí)別和響應(yīng)說(shuō)話者,但通過(guò)技術(shù)進(jìn)行語(yǔ)音識(shí)別是復(fù)雜的,需要大量計(jì)算。由于數(shù)字信號(hào)處理和計(jì)算機(jī)系統(tǒng)的進(jìn)步,自動(dòng)說(shuō)話人識(shí)別系統(tǒng)的使用在過(guò)去十年中變得普遍。

說(shuō)話人識(shí)別系統(tǒng)的組成部分

說(shuō)話人識(shí)別系統(tǒng)包括三個(gè)部分:

說(shuō)話人識(shí)別:從一組登記的說(shuō)話人中查明說(shuō)話人的身份。目標(biāo)是從已存儲(chǔ)的幾個(gè)模型中找到合適的揚(yáng)聲器。(檢查多人)

說(shuō)話人驗(yàn)證:驗(yàn)證未知聲音是否屬于某個(gè)說(shuō)話人。當(dāng)一個(gè)人將自己標(biāo)識(shí)為 John Doe/Jane Doe 時(shí),說(shuō)話人驗(yàn)證系統(tǒng)會(huì)將語(yǔ)音數(shù)據(jù)與錄制的模型進(jìn)行比較,以確定說(shuō)話人的身份是否與他/她聲稱(chēng)的身份相符。(檢查聲稱(chēng)的身份)

說(shuō)話者分類(lèi):根據(jù)語(yǔ)音的特殊特征(基于從語(yǔ)音內(nèi)容中提取的特征)將包含說(shuō)話者語(yǔ)音的音頻流劃分為同質(zhì)段/時(shí)間幀,以對(duì)說(shuō)話者進(jìn)行身份分類(lèi)。

說(shuō)話人驗(yàn)證系統(tǒng)的應(yīng)用

訪問(wèn)控制一個(gè)人必須說(shuō)出一個(gè)特定的短語(yǔ)來(lái)表明自己的身份,才能訪問(wèn)受限場(chǎng)所和特權(quán)信息。

交易認(rèn)證:一個(gè)人必須說(shuō)出一個(gè)特定的短語(yǔ)來(lái)識(shí)別他/她自己,以啟動(dòng)電話銀行/信用卡授權(quán)或類(lèi)似的交易。

揚(yáng)聲器驗(yàn)證系統(tǒng)基礎(chǔ)知識(shí)

pYYBAGLeEjaAJgDiAAAx2mLo8qQ833.jpg

圖 1:揚(yáng)聲器驗(yàn)證基礎(chǔ)

Front-End 部分捕獲說(shuō)話者的聲音,并將語(yǔ)音信號(hào)轉(zhuǎn)換為一組代表說(shuō)話者特征的特征向量。后端部分將特征向量與說(shuō)話者的存儲(chǔ)模型(即通用背景模型,如下所述)進(jìn)行比較,以確定它們匹配的精確程度以驗(yàn)證說(shuō)話者的身份。一旦說(shuō)話者的聲音與數(shù)據(jù)庫(kù)中的聲音模型匹配,他們就可以訪問(wèn)。

用于記錄和創(chuàng)建“揚(yáng)聲器模型”的機(jī)制的變化增加了復(fù)雜性。由于可變的語(yǔ)音/語(yǔ)音保真度,說(shuō)話人識(shí)別/驗(yàn)證變得更加復(fù)雜。例如,在銀行使用高分辨率、高保真錄音機(jī)創(chuàng)建揚(yáng)聲器模型時(shí),語(yǔ)音保真度會(huì)有所不同,但基于語(yǔ)音的交易是使用具有嘈雜背景的手機(jī)完成的。

說(shuō)話人識(shí)別/驗(yàn)證流程圖

最初創(chuàng)建了一個(gè)大型模型數(shù)據(jù)庫(kù),其中包含許多說(shuō)話者和來(lái)自這些說(shuō)話者的數(shù)小時(shí)語(yǔ)音數(shù)據(jù)。錄音包含來(lái)自不同來(lái)源的各種高保真和低保真語(yǔ)音輸入。分析從大量語(yǔ)音數(shù)據(jù)中提取的特征并訓(xùn)練模型以創(chuàng)建通用的男性/女性模型。該模型數(shù)據(jù)庫(kù)被稱(chēng)為“通用背景模型”(UBM)。

然后,創(chuàng)建想要識(shí)別/驗(yàn)證自己的說(shuō)話者模型數(shù)據(jù)庫(kù)。該模型數(shù)據(jù)庫(kù)被稱(chēng)為“揚(yáng)聲器模型”。該模型是從“通用背景模型”派生/創(chuàng)建的,該模型對(duì)通用男性/女性聲音進(jìn)行分類(lèi)。目標(biāo)揚(yáng)聲器型號(hào)與 UBM 略有不同。這些差異被記錄并保存在“揚(yáng)聲器模型”數(shù)據(jù)庫(kù)中。

現(xiàn)在,當(dāng)這個(gè)人說(shuō):“我是 John Doe”時(shí),這個(gè)語(yǔ)音片段被記錄下來(lái)并分割成 10 毫秒的幀,并通過(guò)特征提取模型,產(chǎn)生語(yǔ)音的一些特征/特征。

pYYBAGLeEkGAIYVdAAB9dl6J3JE265.jpg

圖 2:說(shuō)話人驗(yàn)證流程圖

如果 John Doe 想要驗(yàn)證他的名字,我們將從輸入語(yǔ)音“I am John Doe”中提取的特征輸入到他的說(shuō)話人模型(特征提取)中,該模型確定特征匹配的水平并計(jì)算它是“John多伊'。

然后,對(duì)于相同的輸入聲音,“我是 John Doe”,我們將提取的特征輸入到通用背景模型中,以確定特征匹配的水平,并得出他是普通男性聲音的可能性。

決策的似然比由上述兩個(gè)似然比得出。接受/拒絕決定是基于根據(jù)呼叫者是“John Doe”的可能性和呼叫者是普通男性的可能性(基于通用背景模型)計(jì)算的某個(gè)閾值做出的。

eInfochips 為基于語(yǔ)音和音頻的中間件提供嵌入式系統(tǒng)和軟件開(kāi)發(fā)、移植、優(yōu)化、支持和維護(hù)解決方案,其中包括:DSP 域中的編碼器、解碼器、預(yù)處理和后處理算法。還提供語(yǔ)音/音頻相關(guān)工具和服務(wù)的維護(hù)和開(kāi)發(fā)。eInfochips 還迎合了多核平臺(tái)上自定義算法的實(shí)現(xiàn)和并行化。

作者:瑞詩(shī)凱詩(shī)·阿加什

Rhishikesh Agashe 是 eInfochips 技術(shù)團(tuán)隊(duì)的一員,他在 IT 行業(yè)擁有近 19 年的經(jīng)驗(yàn)。4 年的企業(yè)家生涯和 15 年的嵌入式領(lǐng)域經(jīng)驗(yàn),其中他的大部分經(jīng)驗(yàn)是在嵌入式媒體處理領(lǐng)域,他參與了音頻和語(yǔ)音算法的實(shí)施。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    作為說(shuō)話識(shí)別特征參量的MFCC的提取過(guò)程

    作為說(shuō)話識(shí)別特征參量的MFCC的提取過(guò)程
    發(fā)表于 08-20 12:37

    DSP嵌入式說(shuō)話識(shí)別系統(tǒng)設(shè)計(jì)方案

    信息安全等領(lǐng)域的應(yīng)用逐漸增大,并成為人們?nèi)粘I詈凸ぷ髦兄匾移占暗陌踩?b class='flag-5'>驗(yàn)證方式。目前,說(shuō)話人身份識(shí)別在理論上和實(shí)驗(yàn)室條件下已經(jīng)達(dá)到了比較高的識(shí)別精度,并開(kāi)始走向?qū)嶋H應(yīng)用階段。AT&T
    發(fā)表于 07-29 06:34

    基于DSP嵌入式說(shuō)話識(shí)別系統(tǒng)該怎么設(shè)計(jì)?

    說(shuō)話人身份識(shí)別屬于生物認(rèn)證技術(shù)的一種,是一項(xiàng)根據(jù)語(yǔ)音中反映說(shuō)話人生理和行為特征的語(yǔ)音參數(shù)來(lái)自動(dòng)識(shí)別說(shuō)話人身份的技術(shù)。
    發(fā)表于 11-04 07:34

    說(shuō)話識(shí)別算法研究及其在SOC上的實(shí)現(xiàn)

    說(shuō)話識(shí)別算法研究及
    發(fā)表于 08-15 10:22 ?15次下載

    基于Cohort相似度的說(shuō)話識(shí)別

    本文提出了一種基于Cohort 相似度度量的識(shí)別方式,訓(xùn)練集外選擇出同這個(gè)目標(biāo)說(shuō)話比較近似的M 個(gè)說(shuō)話計(jì)算M+1 維混合高斯,即Coho
    發(fā)表于 12-16 12:50 ?7次下載

    基于DTW的編碼域說(shuō)話識(shí)別研究

    摘要! 相對(duì)解碼重建后的語(yǔ)音進(jìn)行說(shuō)話識(shí)別從VOIP的語(yǔ)音流中直接提取語(yǔ)音特征參數(shù)進(jìn)行說(shuō)話識(shí)別
    發(fā)表于 11-22 14:59 ?0次下載

    DSP嵌入式說(shuō)話識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

    DSP嵌入式說(shuō)話識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) 0 引 言    說(shuō)話人身份識(shí)別屬于生物認(rèn)證技術(shù)的一種,是一項(xiàng)根據(jù)語(yǔ)
    發(fā)表于 12-28 17:55 ?696次閱讀
    DSP嵌入式<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別系統(tǒng)</b>的設(shè)計(jì)與實(shí)現(xiàn)

    DSP嵌入式說(shuō)話識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

    DSP嵌入式說(shuō)話識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)  0 引 言   說(shuō)話人身份識(shí)別屬于生物認(rèn)證技術(shù)的一種,是一項(xiàng)根據(jù)語(yǔ)音中反映
    發(fā)表于 01-06 14:07 ?681次閱讀
    DSP嵌入式<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別系統(tǒng)</b>的設(shè)計(jì)與實(shí)現(xiàn)

    基于FPGA的說(shuō)話識(shí)別系統(tǒng)設(shè)計(jì)

    基于FPGA的說(shuō)話識(shí)別系統(tǒng)設(shè)計(jì)
    發(fā)表于 01-18 20:39 ?26次下載

    DSP嵌入式說(shuō)話識(shí)別系統(tǒng)的設(shè)計(jì)方案

    等領(lǐng)域的應(yīng)用逐漸增大,并成為人們?nèi)粘I詈凸ぷ髦兄匾移占暗陌踩?b class='flag-5'>驗(yàn)證方式。目前,說(shuō)話人身份識(shí)別在理論上和實(shí)驗(yàn)室條件下已經(jīng)達(dá)到了比較高的識(shí)別精度,并開(kāi)始走向?qū)嶋H應(yīng)用階段。ATT、歐洲電信
    發(fā)表于 11-02 16:14 ?0次下載
    DSP嵌入式<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別系統(tǒng)</b>的設(shè)計(jì)<b class='flag-5'>方案</b>

    基于MAP+CMLLR的說(shuō)話識(shí)別中發(fā)聲力度問(wèn)題

    為了改善發(fā)聲力度對(duì)說(shuō)話識(shí)別系統(tǒng)性能的影響,在訓(xùn)練語(yǔ)音存在少量耳語(yǔ)、高喊語(yǔ)音數(shù)據(jù)的前提下,提出了使用最大后驗(yàn)概率(MAP)和約束最大似然線性回歸(CMLLR)相結(jié)合的方法來(lái)更新說(shuō)話
    發(fā)表于 12-05 15:21 ?0次下載
    基于MAP+CMLLR的<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別</b>中發(fā)聲力度問(wèn)題

    一種新的說(shuō)話識(shí)別系統(tǒng)框架

    針對(duì)目前說(shuō)話識(shí)別系統(tǒng)的效率問(wèn)題,采用集成算法的策略,提出一種新的說(shuō)話識(shí)別系統(tǒng)框架。首先,考慮
    發(fā)表于 01-08 10:17 ?0次下載

    基于CS的說(shuō)話識(shí)別算法

    提出了一種基于壓縮感知(CS) 的說(shuō)話識(shí)別算法以及在ARM 系統(tǒng)中的實(shí)現(xiàn),首先,介紹壓縮感知理論框架,提出說(shuō)話
    發(fā)表于 01-18 17:33 ?3次下載
    基于CS的<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別</b>算法

    基于TDSDM642EVM數(shù)字處理芯片實(shí)現(xiàn)實(shí)時(shí)說(shuō)話識(shí)別系統(tǒng)的設(shè)計(jì)

    說(shuō)話識(shí)別又稱(chēng)聲紋識(shí)別,是通過(guò)說(shuō)話的聲音特征進(jìn)行身份認(rèn)證的一種生物特征
    發(fā)表于 08-06 13:17 ?930次閱讀
    基于TDSDM642EVM數(shù)字處理芯片實(shí)現(xiàn)實(shí)時(shí)<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別系統(tǒng)</b>的設(shè)計(jì)

    基于GMM的實(shí)時(shí)說(shuō)話識(shí)別系統(tǒng)

    電子發(fā)燒友網(wǎng)站提供《基于GMM的實(shí)時(shí)說(shuō)話識(shí)別系統(tǒng).pdf》資料免費(fèi)下載
    發(fā)表于 10-08 10:19 ?0次下載
    基于GMM的實(shí)時(shí)<b class='flag-5'>說(shuō)話</b><b class='flag-5'>人</b><b class='flag-5'>識(shí)別系統(tǒng)</b>
    主站蜘蛛池模板: 免费的三级网站 | 九九视频这里只有精品 | 欧美色国| 午夜黄色一级片 | 日本福利网址 | 欧美乱淫 | 免费午夜在线视频 | 俺来也俺去啦久久综合网 | ⅹxxxx68日本老师hd | 婷婷亚洲综合五月天小说在线 | 就操| 性欧美乱又伦 | 欧美性喷潮| 99视频精品全国免费 | 天天干天天色天天射 | 国产精品xxxav免费视频 | 久久成人福利视频 | 香港午夜理理伦_级毛片 | 日本内谢69xxxx免费 | 91x视频 | 精品国产免费观看久久久 | 色多多视频网站 | 精品国产成人系列 | 久久久久毛片成人精品 | 韩国三级日本三级在线观看 | 五月天婷婷免费视频 | 久久影院朴妮唛 | 欧美一卡2卡三卡四卡五卡 欧美一卡二卡3卡4卡无卡六卡七卡科普 | 国产高清在线观看 | wwwcom日本| 亚洲 欧美 日韩 在线 中文字幕 | 国产操女 | 久操青青 | 天堂8中文在线bt | 性欧美videofree另类超大 | 丁香五香天堂网卡 | 天天性视频 | hd性欧美 | 国产精品爱啪在线线免费观看 | 成人中文在线 | 免费视频在线看 |