在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言處理中的卷積神經(jīng)網(wǎng)絡(luò)的詳細(xì)資料介紹和應(yīng)用

Dbwd_Imgtec ? 來源:未知 ? 作者:易水寒 ? 2018-08-04 11:26 ? 次閱讀

1、傳統(tǒng)的自然語言處理模型

1)傳統(tǒng)的詞袋模型或者連續(xù)詞袋模型(CBOW)都可以通過構(gòu)建一個全連接的神經(jīng)網(wǎng)絡(luò)對句子進(jìn)行情感標(biāo)簽的分類,但是這樣存在一個問題,我們通過激活函數(shù)可以讓某些結(jié)點(diǎn)激活(例如一個句子里”not”,”hate”這樣的較強(qiáng)的特征詞),但是由于在這樣網(wǎng)絡(luò)構(gòu)建里,句子中詞語的順序被忽略,也許同樣兩個句子都出現(xiàn)了not和hate但是一個句子(I do not hate this movie)表示的是good的情感,另一個句子(I hate this movie and will not choose it)表示的是bad的情感。其實(shí)很重要的一點(diǎn)是在剛才上述模型中我們無法捕獲像not hate這樣由連續(xù)兩個詞所構(gòu)成的關(guān)鍵特征的詞的含義。

2)在語言模型里n-gram模型是可以用來解決上面的問題的,想法其實(shí)就是將連續(xù)的兩個詞作為一個整體納入到模型中,這樣確實(shí)能夠解決我們剛才提出的問題,加入bi-gram,tri-gram可以讓我們捕捉到例如“don’t love”,“not the best”。但是新的問題又來了,如果我們使用多元模型,實(shí)際訓(xùn)練時的參數(shù)是一個非常大的問題,因為假設(shè)你有20000個詞,加入bi-gram實(shí)際上你就要有400000000個詞,這樣參數(shù)訓(xùn)練顯然是爆炸的。另外一點(diǎn),相似的詞語在這樣的模型中不能共享例如參數(shù)權(quán)重等,這樣就會導(dǎo)致相似詞無法獲得交互信息。

2、自然語言處理中的卷積神經(jīng)網(wǎng)絡(luò)

在圖像中卷積核通常是對圖像的一小塊區(qū)域進(jìn)行計算,而在文本中,一句話所構(gòu)成的詞向量作為輸入。每一行代表一個詞的詞向量,所以在處理文本時,卷積核通常覆蓋上下幾行的詞,所以此時卷積核的寬度與輸入的寬度相同,通過這樣的方式,我們就能夠捕捉到多個連續(xù)詞之間的特征(只要通過設(shè)置卷積核的尺寸,卷積核的寬度一般和詞向量的長度一致,長度可以去1,2,3這類的值,當(dāng)取3時就會將3個連續(xù)詞的特征表示出來),并且能夠在同一類特征計算時中共享權(quán)重。如下圖所示

如上圖所示,不同長度的卷積核,會獲得不同長度的輸出值,但在之后的池化中又會得到相同的長度(比如上面的深紅色的卷積核是4 × 5,對于輸入值為7 × 5的輸入值,卷積之后的輸出值就是4 × 1,最大池化之后就是1 × 1;深綠色的卷積核是3 × 5,卷積之后的輸出值是5 × 1,最大池化之后就是1 × 1),最后將所有池化后的值組合在一起,這樣有一點(diǎn)好處,無論輸入值的大小是否相同(輸入值行一般不相等,對于輸入值列是詞向量的長度,一般都是相等,但是行是和文本中詞的數(shù)量相關(guān)的),要用相同數(shù)量的卷積核進(jìn)行卷積,之后再池化就會獲得相同長度的向量(向量的長度和卷積核的數(shù)量相等),這樣再之后就可以用全連接層了(全連接層的輸入值的向量大小必須是一致的)。

3、卷積層的最大池化問題

MaxPooling Over Time是NLP中CNN模型中最常見的一種下采樣操作。意思是對于某個Filter抽取到若干特征值,只取其中得分最大的那個值作為Pooling層保留值,其它特征值全部拋棄,值最大代表只保留這些特征中最強(qiáng)的,而拋棄其它弱的此類特征(正如上圖所示的那樣)。

CNN中采用Max Pooling操作有幾個好處:

1)這個操作可以保證特征的位置與旋轉(zhuǎn)不變性,因為不論這個強(qiáng)特征在哪個位置出現(xiàn),都會不考慮其出現(xiàn)位置而能把它提出來。對于圖像處理來說這種位置與旋轉(zhuǎn)不變性是很好的特性,但是對于NLP來說,這個特性其實(shí)并不一定是好事,因為在很多NLP的應(yīng)用場合,特征的出現(xiàn)位置信息是很重要的,比如主語出現(xiàn)位置一般在句子頭,賓語一般出現(xiàn)在句子尾等等,這些位置信息其實(shí)有時候?qū)τ诜诸惾蝿?wù)來說還是很重要的,但是Max Pooling 基本把這些信息拋掉了。

2)MaxPooling能減少模型參數(shù)數(shù)量,有利于減少模型過擬合問題。因為經(jīng)過Pooling操作后,往往把2D(圖像中)或者1D(自然語言中)的數(shù)組轉(zhuǎn)換為單一數(shù)值,這樣對于后續(xù)的Convolution層或者全聯(lián)接隱層來說無疑單個Filter的參數(shù)或者隱層神經(jīng)元個數(shù)就減少了。

3)對于NLP任務(wù)來說,Max Pooling有個額外的好處;在此處,可以把變長的輸入X整理成固定長度的輸入。因為CNN最后往往會接全聯(lián)接層,而其神經(jīng)元個數(shù)是需要事先定好的,如果輸入是不定長的那么很難設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)。

但是,CNN模型采取MaxPooling Over Time也有一些值得注意的缺點(diǎn):首先就如上所述,特征的位置信息在這一步驟完全丟失。在卷積層其實(shí)是保留了特征的位置信息的,但是通過取唯一的最大值,現(xiàn)在在Pooling層只知道這個最大值是多少,但是其出現(xiàn)位置信息并沒有保留;另外一個明顯的缺點(diǎn)是:有時候有些強(qiáng)特征會出現(xiàn)多次,比如我們常見的TF.IDF公式,TF就是指某個特征出現(xiàn)的次數(shù),出現(xiàn)次數(shù)越多說明這個特征越強(qiáng),但是因為Max Pooling只保留一個最大值,所以即使某個特征出現(xiàn)多次,現(xiàn)在也只能看到一次,就是說同一特征的強(qiáng)度信息丟失了。這是Max Pooling Over Time典型的兩個缺點(diǎn)。

針對上面提出的兩個缺點(diǎn),通常的解決辦法是下面兩種池化方法

K-Max Pooling

K-MaxPooling的核心思想是:原先的Max Pooling Over Time從Convolution層一系列特征值中只取最強(qiáng)的那個值,K-Max Pooling可以取所有特征值中得分在Top –K的值,并保留這些特征值原始的先后順序,就是說通過多保留一些特征信息供后續(xù)階段使用。如下圖所示

很明顯,K-Max Pooling可以表達(dá)同一類特征出現(xiàn)多次的情形,即可以表達(dá)某類特征的強(qiáng)度;另外,因為這些Top K特征值的相對順序得以保留,所以應(yīng)該說其保留了部分位置信息,但是這種位置信息只是特征間的相對順序,而非絕對位置信息。

Chunk-Max Pooling

Chunk-MaxPooling的核心思想是:把某個Filter對應(yīng)的Convolution層的所有特征向量進(jìn)行分段,切割成若干段后,在每個分段里面各自取得一個最大特征值,比如將某個Filter的特征向量切成3個Chunk,那么就在每個Chunk里面取一個最大值,于是獲得3個特征值。如下圖所示,不同顏色代表不同段

Chunk-Max Pooling思路類似于K-Max Pooling,因為它也是從Convolution層取出了K個特征值,但是兩者的主要區(qū)別是:K-Max Pooling是一種全局取Top K特征的操作方式,而Chunk-Max Pooling則是先分段,在分段內(nèi)包含特征數(shù)據(jù)里面取最大值,所以其實(shí)是一種局部Top K的特征抽取方式。

至于這個Chunk怎么劃分,可以有不同的做法,比如可以事先設(shè)定好段落個數(shù),這是一種靜態(tài)劃分Chunk的思路;也可以根據(jù)輸入的不同動態(tài)地劃分Chunk間的邊界位置,可以稱之為動態(tài)Chunk-Max方法。事實(shí)上對于K-Max Pooling也有動態(tài)的去獲取K的值的方法,表達(dá)式如下

s代表的是句子長度,L代表總的卷積層的個數(shù),l代表的是當(dāng)前是在幾個卷積層,所以可以看出這里的k是隨著句子的長度和網(wǎng)絡(luò)深度而改變。

Chunk-Max Pooling很明顯也是保留了多個局部Max特征值的相對順序信息,盡管并沒有保留絕對位置信息,但是因為是先劃分Chunk再分別取Max值的,所以保留了比較粗粒度的模糊的位置信息;當(dāng)然,如果多次出現(xiàn)強(qiáng)特征,則也可以捕獲特征強(qiáng)度。

如果分類所需要的關(guān)鍵特征的位置信息很重要,那么類似Chunk-Max Pooling這種能夠粗粒度保留位置信息的機(jī)制應(yīng)該能夠?qū)Ψ诸愋阅苡幸欢ǔ潭鹊奶嵘饔茫坏菍τ诤芏喾诸悊栴},估計Max-Pooling over time就足夠了。

4、卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

最適合CNNs的莫過于分類任務(wù),如語義分析、垃圾郵件檢測和話題分類。卷積運(yùn)算和池化會丟失局部區(qū)域某些單詞的順序信息,因此純CNN的結(jié)構(gòu)框架不太適用于PoS Tagging和Entity Extraction等順序標(biāo)簽任務(wù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4795

    瀏覽量

    102144
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22558
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    625

    瀏覽量

    13905

原文標(biāo)題:自然語言處理之卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    網(wǎng)絡(luò) GhostNet。由于卷積神經(jīng)網(wǎng)絡(luò)的一系列突破性研究成果, 并根據(jù)不同的任務(wù)需求不斷改進(jìn),使其在目標(biāo)檢測、 語義分割、自然語言處理等不
    發(fā)表于 08-02 10:39

    淺談圖神經(jīng)網(wǎng)絡(luò)自然語言處理的應(yīng)用簡述

    近幾年,神經(jīng)網(wǎng)絡(luò)因其強(qiáng)大的表征能力逐漸取代傳統(tǒng)的機(jī)器學(xué)習(xí)成為自然語言處理任務(wù)的基本模型。然而經(jīng)典的神經(jīng)網(wǎng)絡(luò)模型只能處理歐氏空間中的數(shù)據(jù),
    的頭像 發(fā)表于 04-26 14:57 ?3437次閱讀
    淺談圖<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>中</b>的應(yīng)用簡述

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種前饋神經(jīng)網(wǎng)絡(luò),常用于圖像
    的頭像 發(fā)表于 08-17 16:30 ?1390次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么

    神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識別、自然語言處理、視頻處理等方面。本文將對
    的頭像 發(fā)表于 08-21 16:41 ?5283次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

    和高效的處理方式,CNN已經(jīng)成為圖像識別、語音識別和自然語言處理等領(lǐng)域中的優(yōu)選技術(shù)。CNN對于處理基于網(wǎng)格結(jié)構(gòu)的數(shù)據(jù)具有天然的優(yōu)勢,因此在處理
    的頭像 發(fā)表于 08-21 16:41 ?3424次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型原理 卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)

    數(shù)據(jù)的不同方面,從而獲得預(yù)測和最終的表??現(xiàn)。本文將提供有關(guān)卷積神經(jīng)網(wǎng)絡(luò)模型的工作原理和結(jié)構(gòu)的詳細(xì)信息,包括其在圖像、語音和自然語言處理等不
    的頭像 發(fā)表于 08-21 16:41 ?1200次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的工作原理 卷積神經(jīng)網(wǎng)絡(luò)通俗解釋

    。CNN可以幫助人們實(shí)現(xiàn)許多有趣的任務(wù),如圖像分類、物體檢測、語音識別、自然語言處理和視頻分析等。本文將詳細(xì)介紹卷積
    的頭像 發(fā)表于 08-21 16:49 ?4231次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建

    卷積神經(jīng)網(wǎng)絡(luò)模型搭建 卷積神經(jīng)網(wǎng)絡(luò)模型是一種深度學(xué)習(xí)算法。它已經(jīng)成為了計算機(jī)視覺和自然語言處理
    的頭像 發(fā)表于 08-21 17:11 ?1126次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)主要包括哪些 卷積神經(jīng)網(wǎng)絡(luò)組成部分

    卷積神經(jīng)網(wǎng)絡(luò)主要包括哪些 卷積神經(jīng)網(wǎng)絡(luò)組成部分 卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一類廣泛應(yīng)用于計算機(jī)視覺
    的頭像 發(fā)表于 08-21 17:15 ?2117次閱讀

    神經(jīng)網(wǎng)絡(luò)自然語言處理的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域中的一個重要分支,它研究的是如何使計算機(jī)能夠理解和生成人類自然語言。隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)自然語
    的頭像 發(fā)表于 07-01 14:09 ?759次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。本文將
    的頭像 發(fā)表于 07-02 14:44 ?1034次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將
    的頭像 發(fā)表于 07-03 09:15 ?736次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將
    的頭像 發(fā)表于 07-03 10:49 ?886次閱讀

    用于自然語言處理神經(jīng)網(wǎng)絡(luò)有哪些

    取得了顯著進(jìn)展,成為處理自然語言任務(wù)的主要工具。本文將詳細(xì)介紹幾種常用于NLP的神經(jīng)網(wǎng)絡(luò)模型,包括遞歸
    的頭像 發(fā)表于 07-03 16:17 ?1903次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)自然語言處理的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它通過卷積層來提取輸入數(shù)據(jù)的特征。在
    的頭像 發(fā)表于 11-15 14:58 ?597次閱讀
    主站蜘蛛池模板: 福利一级片 | 亚洲黄色色图 | 1024人成软件色www | 国产黄色大全 | 网站国产 | 97国内精品久久久久久久影视 | 四虎影视最新网址 | 一级a爰片久久毛片 | 亚洲三级视频在线观看 | 日韩色网 | 欧美色综合高清视频在线 | 天天看夜夜操 | 五月天婷婷导航 | 女人aaaaa片一级一毛片 | 6080伦理久久亚洲精品 | 欧美地区一二三区 | 亚洲欧美精品成人久久91 | 国产精品久久久久久久久齐齐 | 欧美色图色就是色 | 视频网站黄 | 99久久综合| 中国高清色视频www 中国高清性色生活片 | 国产理论视频在线观看 | 国产农村妇女毛片精品久久 | 狠狠干网| 亚洲天堂2013 | 久久综合视频网 | 久久国产免费 | 黄色aa毛片 | 一级片在线播放 | 日本一道高清不卡免费 | 性感美女毛片 | 国产小视频在线高清播放 | 天天透天天射 | 四虎网站在线播放 | 天天在线干 | yellow中文字幕久久网 | 日韩免费三级电影 | 特级一级毛片视频免费观看 | 亚洲视频在线播放 | 在线a网|