在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用3D卷積神經(jīng)網(wǎng)絡(luò)的交叉視聽(tīng)識(shí)別技術(shù)進(jìn)行唇語(yǔ)識(shí)別

電子工程師 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-05 17:38 ? 次閱讀

唇語(yǔ)識(shí)別系統(tǒng)使用機(jī)器視覺(jué)技術(shù),從圖像中連續(xù)識(shí)別出人臉,判斷其中正在說(shuō)話(huà)的人,提取此人連續(xù)的口型變化特征,隨即將連續(xù)變化的特征輸入到唇語(yǔ)識(shí)別模型中,識(shí)別出講話(huà)人口型對(duì)應(yīng)的發(fā)音,隨后根據(jù)識(shí)別出的發(fā)音,計(jì)算出可能性最大的自然語(yǔ)言語(yǔ)句。

唇語(yǔ)識(shí)別并非最近才出現(xiàn)的技術(shù),早在 2003 年,Intel 就開(kāi)發(fā)了唇語(yǔ)識(shí)別軟件 Audio Visual Speech Recognition(AVSR),開(kāi)發(fā)者得以能夠研發(fā)可以進(jìn)行唇語(yǔ)識(shí)別的計(jì)算機(jī);2016 年 Google DeepMind 的唇語(yǔ)識(shí)別技術(shù)就已經(jīng)可以支持 17500 個(gè)詞,新聞測(cè)試集識(shí)別準(zhǔn)確率達(dá)到了 50% 以上。

大家一定很好奇唇語(yǔ)識(shí)別系統(tǒng)要怎么實(shí)現(xiàn)。Amirsina Torfi 等人實(shí)現(xiàn)了使用 3D 卷積神經(jīng)網(wǎng)絡(luò)的交叉視聽(tīng)識(shí)別技術(shù)進(jìn)行唇語(yǔ)識(shí)別,并將代碼托管到 GitHub 上開(kāi)源:

傳送門(mén):

https://github.com/astorfi/lip-reading-deeplearning

接下來(lái)就為大家介紹如何使用 3D 卷積神經(jīng)網(wǎng)絡(luò)的交叉視聽(tīng)識(shí)別技術(shù)進(jìn)行唇語(yǔ)識(shí)別,完整的論文可參閱:

https://ieeexplore.ieee.org/document/8063416

下面是進(jìn)行唇語(yǔ)識(shí)別的簡(jiǎn)單實(shí)現(xiàn)方法。

用戶(hù)需要按照格式準(zhǔn)備輸入數(shù)據(jù)。該項(xiàng)目使用耦合 3D 卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了視聽(tīng)匹配(audio-visual matching)。唇語(yǔ)識(shí)別就是這個(gè)項(xiàng)目的具體應(yīng)用之一。

概況

當(dāng)音頻損壞時(shí),視聽(tīng)語(yǔ)音識(shí)別(Audio-visual recognition,AVR)被認(rèn)為是完成語(yǔ)音識(shí)別任務(wù)的另一種解決方案,同時(shí),它也是一種在多人場(chǎng)景中用于驗(yàn)證講話(huà)人的視覺(jué)識(shí)別方法。AVR 系統(tǒng)的方法是利用從某種模態(tài)中提取的信息,通過(guò)填補(bǔ)缺失的信息來(lái)提高另一種模態(tài)的識(shí)別能力。

▌問(wèn)題與方法

這項(xiàng)工作的關(guān)鍵問(wèn)題是找出音頻和視頻流之間的對(duì)應(yīng)關(guān)系。我們提出了一種耦合 3D 卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),該架構(gòu)可以將兩種模式映射到一個(gè)表示空間中,并使用學(xué)到的多模態(tài)特征來(lái)判斷視聽(tīng)流間的對(duì)應(yīng)關(guān)系。

▌如何利用 3D 卷積神經(jīng)網(wǎng)絡(luò)

我們提出的該架構(gòu)將結(jié)合時(shí)態(tài)信息和空間信息,來(lái)有效地發(fā)現(xiàn)不同模態(tài)的時(shí)態(tài)信息之間的相關(guān)性。我們的方法使用相對(duì)較小的網(wǎng)絡(luò)架構(gòu)和更小的數(shù)據(jù)集,并在性能上優(yōu)于現(xiàn)有的視聽(tīng)匹配方法,而現(xiàn)有方法主要使用 CNN來(lái)表示特征。我們還證明了有效的對(duì)選擇(pair selection)方法可以顯著提高性能。

代碼實(shí)現(xiàn)

輸入管道須由用戶(hù)提供。其余部分的實(shí)現(xiàn)包含基于話(huà)語(yǔ)的特征提取的數(shù)據(jù)集。

▌唇語(yǔ)識(shí)別

就唇語(yǔ)識(shí)別來(lái)講,必須將視頻作為輸入。首先,使用 cd 命令進(jìn)入相應(yīng)的目錄:

運(yùn)行專(zhuān)用的python file如下:

運(yùn)行上述腳本,通過(guò)保存每個(gè)幀的嘴部區(qū)域來(lái)提取唇部動(dòng)作,并在畫(huà)框圈出嘴部區(qū)域來(lái)創(chuàng)建新的視頻,以便進(jìn)行更好的可視化。

所需的arguments由以下 Python 腳本定義,VisualizeLip.py文件中已定義該腳本:

一些已定義的參數(shù)有其默認(rèn)值,它們并不需要進(jìn)一步的操作。

▌處理

視覺(jué)部分,視頻通過(guò)后期處理,使其幀率相等,均為 30f/s。然后,使用 dlib 庫(kù)跟蹤視頻中的人臉和提取嘴部區(qū)域。最后,所有嘴部區(qū)域都調(diào)整為相同的大小,并拼接起來(lái)形成輸入特征數(shù)據(jù)集。數(shù)據(jù)集并不包含任何音頻文件。使用 FFmpeg 框架從視頻中提取音頻文件。數(shù)據(jù)處理管道如下圖所示:

▌?shì)斎牍艿?/p>

我們所提出的架構(gòu)使用兩個(gè)不相同的卷積網(wǎng)絡(luò)(ConvNet),輸入是一對(duì)語(yǔ)音和視頻流。網(wǎng)絡(luò)輸入是一對(duì)特征,表示從 0.3 秒的視頻中提取的唇部動(dòng)作和語(yǔ)音特征。主要任務(wù)是確定音頻流是否與唇部運(yùn)動(dòng)視頻在所需的流持續(xù)時(shí)間內(nèi)相對(duì)應(yīng)。在接下來(lái)的兩個(gè)小節(jié)中,我們將分別講解語(yǔ)音和視覺(jué)流的輸入。

語(yǔ)音網(wǎng)絡(luò)(Speech Net)

在時(shí)間軸上,時(shí)間特征是非重疊的 20ms 窗口,用來(lái)生成局部的頻譜特征。語(yǔ)音特征輸入以圖像數(shù)據(jù)立方體的形式表示,對(duì)應(yīng)于頻譜圖,以及 MFEC 特征的一階導(dǎo)數(shù)和二階導(dǎo)數(shù)。這三個(gè)通道對(duì)應(yīng)于圖像深度。從一個(gè) 0.3 秒的視頻剪輯中,可以導(dǎo)出 15 個(gè)時(shí)態(tài)特征集(每個(gè)都形成 40 個(gè) MFEC 特征),這些特征集形成了語(yǔ)音特征立方體。一個(gè)音頻流的輸入特征維數(shù)為 15x40x3。如下圖所示:

語(yǔ)音特征使用 SpeechPy 包進(jìn)行提取。

要了解輸入管道是如何工作的,請(qǐng)參閱:

code/speech_input/input_feature.py

視覺(jué)網(wǎng)絡(luò)(Visual Net)

在這項(xiàng)工作中使用的每個(gè)視頻剪輯的幀率是 30 f/s。因此,9 個(gè)連續(xù)的圖像幀形成 0.3 秒的視頻流。網(wǎng)絡(luò)的視頻流的輸入是大小為 9x60x100 的立方體,其中 9 是表示時(shí)態(tài)信息的幀數(shù)。每個(gè)通道是嘴部區(qū)域的 60x100 灰度圖像。

架構(gòu)

該架構(gòu)是一個(gè)耦合 3D 卷積神經(jīng)網(wǎng)絡(luò),其中必須訓(xùn)練具有不同權(quán)重的兩個(gè)網(wǎng)絡(luò)。在視覺(jué)網(wǎng)絡(luò)中,唇部運(yùn)動(dòng)的空間信息和時(shí)態(tài)信息相結(jié)合,以此來(lái)利用時(shí)間相關(guān)性。在音頻網(wǎng)絡(luò)中,提取的能量特征作為空間維度,堆疊的音頻幀構(gòu)成了時(shí)間維度。在我們提出的 3D 卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中,卷積運(yùn)算是在連續(xù)的時(shí)間幀上對(duì)兩個(gè)視聽(tīng)流執(zhí)行的。

訓(xùn)練 / 評(píng)估

首先,克隆存儲(chǔ)庫(kù)。然后,用 cd 命令進(jìn)入專(zhuān)用目錄:

最后,必須執(zhí)行train.py文件:

對(duì)于評(píng)估階段,必須執(zhí)行類(lèi)似腳本:

▌運(yùn)行結(jié)果

下面的結(jié)果表明了該方法對(duì)收斂準(zhǔn)確度和收斂速度的影響。

最好的結(jié)果,也就是最右邊的結(jié)果,屬于我們提出的方法。

所提出的在線(xiàn)對(duì)選擇方法的效果如上圖所示。

分析到這,希望大家可以到 Github 上找到源碼,開(kāi)始練起!附上作者給的代碼演示。

DEMO 演示地址

1.Training/Evaluation :

https://asciinema.org/a/kXIDzZt1UzRioL1gDPzOy9VkZ

2.Lip Tracking:

https://asciinema.org/a/RiZtscEJscrjLUIhZKkoG3GVm

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:唇語(yǔ)識(shí)別技術(shù)的開(kāi)源教程,聽(tīng)不見(jiàn)聲音我也能知道你說(shuō)什么!

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于3D數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別

    FusionNet的核心是全新的、應(yīng)用于3D物體的三維卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)。我們必須在多個(gè)方面調(diào)整傳統(tǒng)的CNN以使其有效。
    發(fā)表于 01-16 16:36 ?3912次閱讀
    基于<b class='flag-5'>3D</b>數(shù)據(jù)<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的物體<b class='flag-5'>識(shí)別</b>

    使用Python卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像識(shí)別的基本步驟

    Python 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別領(lǐng)域具有廣泛的應(yīng)用。通過(guò)使用卷積神經(jīng)網(wǎng)絡(luò),我們可以讓計(jì)算機(jī)從圖像中學(xué)習(xí)特征,從而實(shí)現(xiàn)對(duì)圖像的分
    的頭像 發(fā)表于 11-20 11:20 ?7391次閱讀

    基于毫米波雷達(dá)的手勢(shì)識(shí)別神經(jīng)網(wǎng)絡(luò)

    使用3D-CNN對(duì)三種手勢(shì)進(jìn)行分類(lèi),結(jié)果表明識(shí)別率為91%。然而,3D-CNN在數(shù)據(jù)分辨率靈敏度和數(shù)據(jù)要求方面存在局限性。Ref等人的另一項(xiàng)研究[12]介紹了一種定制的多分支
    發(fā)表于 05-23 12:12

    【uFun試用申請(qǐng)】基于cortex-m系列核和卷積神經(jīng)網(wǎng)絡(luò)算法的圖像識(shí)別

    項(xiàng)目名稱(chēng):基于cortex-m系列核和卷積神經(jīng)網(wǎng)絡(luò)算法的圖像識(shí)別試用計(jì)劃:本人在圖像識(shí)別領(lǐng)域有三年多的學(xué)習(xí)和開(kāi)發(fā)經(jīng)驗(yàn),曾利用nesys4ddr的fpga開(kāi)發(fā)板,設(shè)計(jì)過(guò)基于cortex-
    發(fā)表于 04-09 14:12

    基于賽靈思FPGA的卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)設(shè)計(jì)

    ,看一下 FPGA 是否適用于解決大規(guī)模機(jī)器學(xué)習(xí)問(wèn)題。卷積神經(jīng)網(wǎng)絡(luò)是一種深度神經(jīng)網(wǎng)絡(luò) (DNN),工程師最近開(kāi)始將該技術(shù)用于各種識(shí)別任務(wù)。圖
    發(fā)表于 06-19 07:24

    可分離卷積神經(jīng)網(wǎng)絡(luò)在 Cortex-M 處理器上實(shí)現(xiàn)關(guān)鍵詞識(shí)別

    ,接下來(lái)是密集全連接層。● 深度可分離卷積神經(jīng)網(wǎng)絡(luò) (DS-CNN)最近,深度可分離卷積神經(jīng)網(wǎng)絡(luò)被推薦為標(biāo)準(zhǔn) 3D
    發(fā)表于 07-26 09:46

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    分析了目前的特殊模型結(jié)構(gòu),最后總結(jié)并討論了卷積神經(jīng)網(wǎng)絡(luò)在相關(guān)領(lǐng)域的應(yīng)用,并對(duì)未來(lái)的研究方向進(jìn)行展望。卷積神經(jīng)網(wǎng)絡(luò)(convolutional
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介:什么是機(jī)器學(xué)習(xí)?

    通過(guò)網(wǎng)絡(luò)訓(xùn)練來(lái)確定才能使模型工作。這將在后續(xù)文章“訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò):什么是機(jī)器學(xué)習(xí)?—第 2 部分”中解釋。第 3 部分將解釋我們討論過(guò)的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 02-23 20:11

    3D卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別

    傳統(tǒng)2D卷積神經(jīng)網(wǎng)絡(luò)對(duì)于視頻連續(xù)幀圖像的特征提取容易丟失目標(biāo)時(shí)間軸上的運(yùn)動(dòng)信息,導(dǎo)致識(shí)別準(zhǔn)確度較低。為此,提出一種基于多列深度3D
    發(fā)表于 01-30 13:59 ?2次下載
    <b class='flag-5'>3D</b><b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的手勢(shì)<b class='flag-5'>識(shí)別</b>

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來(lái)處理什么

    神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識(shí)別、自然語(yǔ)言處理、視頻處理等方面。本文將對(duì)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
    的頭像 發(fā)表于 08-21 16:41 ?5464次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)?
    的頭像 發(fā)表于 08-21 16:41 ?3674次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)如何識(shí)別圖像

    多層卷積層、池化層和全連接層。CNN模型通過(guò)訓(xùn)練識(shí)別并學(xué)習(xí)高度復(fù)雜的圖像模式,對(duì)于識(shí)別物體和進(jìn)行圖像分類(lèi)等任務(wù)有著非常優(yōu)越的表現(xiàn)。本文將會(huì)詳細(xì)介紹
    的頭像 發(fā)表于 08-21 16:49 ?2269次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)涉及的關(guān)鍵
    的頭像 發(fā)表于 08-21 16:49 ?2264次閱讀

    圖像識(shí)別卷積神經(jīng)網(wǎng)絡(luò)模型

    圖像識(shí)別卷積神經(jīng)網(wǎng)絡(luò)模型 隨著計(jì)算機(jī)技術(shù)的快速發(fā)展和深度學(xué)習(xí)的迅速普及,圖像識(shí)別卷積
    的頭像 發(fā)表于 08-21 17:11 ?1050次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

    卷積操作 卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積操作。卷積操作是一種數(shù)學(xué)運(yùn)算,用于提取圖像中的局部特征。在圖像識(shí)別
    的頭像 發(fā)表于 07-02 14:28 ?1851次閱讀
    主站蜘蛛池模板: 丝袜美腿一区 | 韩国三级在线视频 | 日美一级毛片 | 欧美精品色精品一区二区三区 | 欧美日韩国产一区二区三区不卡 | 国产性做久久久久久 | 成人在线精品 | 色婷婷精品大全在线视频 | 国产美女主播一级成人毛片 | 久久婷婷国产精品香蕉 | 国产网站在线免费观看 | 天天干天天摸 | 91日本在线观看亚洲精品 | 欧美黄又粗暴一进一出抽搐 | 四虎免费影院在线播放 | 黄网免费| 亚洲欧美国产高清va在线播放 | 四虎影院在线免费播放 | 亚洲丁香婷婷 | 福利色播 | a级毛片毛片免费很很综合 a级男女性高爱潮高清试 | 欧美日韩在线成人看片a | 情趣店上班h系列小说 | 黄色的视频免费看 | 中文天堂在线最新版在线www | 五月天婷婷久久 | 综合网视频 | 窝窝视频成人影院午夜在线 | 国产精品露脸脏话对白 | 2020年亚洲天天爽天天噜 | 午夜伦伦| 6080伦理久久精品亚洲 | 亚洲欧美天堂网 | 久久精品久久久久 | 操你啦在线播放 | 天天操天天舔 | 亚洲第一色在线 | 天天操人人射 | 五月天婷婷基地 | 丁香六月激情网 | 插久久 |