在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文本數(shù)據(jù)預(yù)處理的方法

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-04-11 16:44 ? 次閱讀

文本數(shù)據(jù)分析(一):基本框架

在文本數(shù)據(jù)分析基本框架中,我們涉及到了六個步驟:

數(shù)據(jù)收集

數(shù)據(jù)預(yù)處理

數(shù)據(jù)挖掘和可視化

模型構(gòu)建

模型評估

雖然框架需要迭代,但是我們先將其看作是一個線性的過程:

修正過的文本數(shù)據(jù)處理框架(依然很簡單……)

很顯然,文本數(shù)據(jù)預(yù)處理位于框架的第二步,這一步所包含的詳細步驟有以下兩個:

在原始文本語料上進行預(yù)處理,為文本挖掘或NLP任務(wù)做準(zhǔn)備

數(shù)據(jù)預(yù)處理分為好幾步,其中有些步驟可能適用于給定的任務(wù),也可能不適用。但通常都是標(biāo)記化、歸一化和替代的其中一種(tokenization, normalization, substitution)。

通常,我們會選取一段預(yù)先準(zhǔn)備好的文本,對其進行基本的分析和變換,遺留下更有用的文本數(shù)據(jù),方便之后更深入、更有意義的分析任務(wù)。接下來將是文本挖掘或自然語言處理工作的核心工作。

所以再次重復(fù)以便,文本預(yù)處理的三個主要組成部分:

標(biāo)記化(tokenization)

歸一化(normalization)

替換(substitution)

在下面介紹預(yù)處理方法的過程中,我們需要時刻牢記這三個概念。

文本預(yù)處理框架

接下來,我們將介紹這個框架的概念,而不涉及工具。在下一篇文章中我們會降到這些步驟的安裝過程,看看它們是如何在Python中實現(xiàn)的。

文本數(shù)據(jù)預(yù)處理框架

1.標(biāo)記化(Tokenization)

標(biāo)記化是將文本中的長字符串分割成小的片段或者tokens的過程。大段文字可以被分割成句子,句子又可以被分割成單詞等等。只有經(jīng)過了tokenization,才能對文本進行進一步的處理。Tokenization同樣被稱作文本分割或者詞法分析。有時,分割(segmentation)用來表示大段文字編程小片段的過程(例如段落或句子)。而tokenization指的是將文本變?yōu)橹挥脝卧~表示的過程。

這一過程聽起來很直接,但事實并非如此。在較大的文本中如何識別句子?你的第一反應(yīng)一定是“用標(biāo)點符號”。

的確,下面的句子用傳統(tǒng)的分割方法很容易理解:

The quick brown fox jumps over the lazy dog.

但是下面這句呢:

Dr. Ford did not ask Col. Mustard the name of Mr. Smith’s dog.

還有這個:

“What is all the fuss about?” Asked Mr. Peters.

上面的都只是簡單的句子,那么單詞又怎樣呢?

This full-time student isn’t living in on-campus housing, and she’s not wanting to visit Hawai’i.

我們應(yīng)該意識到,許多策略不只是針對句子分割,而是針對分割的邊界確定之后應(yīng)該做什么。例如,我們可能會采用一種分割策略,它能夠(正確地)將單詞“she’s”的tokens之間特定邊界標(biāo)識識別為撇號(單獨用空格標(biāo)記的策略不足以識別這一點)。但是我們可以從多種策略中選擇,例如是將標(biāo)點符號保留在單詞的某一部分中或是一同舍棄。其中一種方法似乎是正確的,并且似乎不會構(gòu)成實際的問題。但是仔細想想,在英語中我們還需要考慮其他特殊情況。

即,當(dāng)我們將文本分割成句子時,是否應(yīng)該保留句末分隔符?我們是否在意句子在哪里結(jié)束?

2.歸一化(Normalization)

再進一步處理之前,文本需要進行歸一化。歸一化指的是一系列相關(guān)的任務(wù),能夠?qū)⑺形谋痉旁谕凰絽^(qū)域上:將所有文本轉(zhuǎn)化成同樣的實例,刪除標(biāo)點,將數(shù)字轉(zhuǎn)換成相應(yīng)的文字等等。對文本進行歸一化可以執(zhí)行多種任務(wù),但是對于我們的框架,歸一化有3個特殊的步驟:

詞干提取(stemming)

詞形還原(lemmatizatiion)

其他

詞干提取

詞干提取是刪除詞綴的過程(包括前綴、后綴、中綴、環(huán)綴),從而得到單詞的詞干。

詞形還原

詞形還原與詞干提取相關(guān),不同的是,詞形還原能夠捕捉基于詞根的規(guī)范單詞形式。

例如,對“better”一詞進行詞干提取,可能無法生成另一個詞根的詞。然而對其進行詞形還原,就得到:

其他

詞形還原和詞干提取是文本預(yù)處理的主要部分,所以這兩項一定要認真對待。他們不是簡單地文本操作,而要依賴語法規(guī)則和對規(guī)則細致的理解。

然而,還有許多其他步驟可以幫助處理文本,讓它們變成平等的地位,其中有一些只是簡單地替換或刪除。其他重要的方法包括:

將所有字母變成小寫

刪除數(shù)字(或者將數(shù)字換成對應(yīng)的文字)

刪除標(biāo)點(者通常是tokenization的一部分,但是仍然需要在這一步做)

刪除空白格

刪除默認停止詞

停止詞是那些在對文本進一步與處理之前需要過濾掉的單詞,因為這些單詞并不影響整體意義。例如“the”、“and”、“a”這些詞。下面的例子就表明,即使刪除停止詞,句子的意思也很容易理解。

刪除特定的停止詞

刪除稀疏的特定詞語(盡管不是必須的)

在這里,我們應(yīng)該清除文本預(yù)處理很大程度上依賴于預(yù)先建立的詞典、數(shù)據(jù)庫和規(guī)則。在我們下一篇用Python進行預(yù)處理的文章中,你會發(fā)現(xiàn)這些支持工具會非常有用。

3.噪聲清除

噪聲消除延續(xù)了框架的替代任務(wù)。雖然框架的前兩個主要步驟(標(biāo)記化和歸一化)通常適用于幾乎任何的文本或項目,噪聲去除是預(yù)處理框架中一個更加具體的部分。

再次記住,我們的處理過程并不是線性的,其中的過程必須以特定的順序進行,視具體情況而定。因此,噪聲消除可以發(fā)生在上述步驟之前或之后,或者是某個時刻。

具體來說,假設(shè)我們從網(wǎng)上獲取了一個語料庫,并且以原始的web格式存儲,那么我們可以認為文本很大程度上可能有HTML或XML標(biāo)簽。盡管這種對元數(shù)據(jù)的思考可以作為文本收集或組裝的過程中的一部分,但它取決于數(shù)據(jù)是如何獲取和收集的。在上一篇文章中,我簡單講述了如何從維基百科中獲取原始數(shù)據(jù)并搭建語料庫。由于我們控制了數(shù)據(jù)收集的過程,因此在這時處理噪聲也是可行的。

但情況并非總是如此。如果你正在使用的語料庫很嘈雜,你必須處理它。數(shù)據(jù)分析的效果80%都在于數(shù)據(jù)的準(zhǔn)備。

好消息是,此時可以用到模式匹配:

刪除文件標(biāo)題、頁腳

刪除HTML、XML等標(biāo)記和元數(shù)據(jù)

從其他格式(如JSON)或數(shù)據(jù)庫中提取有價值的數(shù)據(jù)

如果你害怕正則表達式,這可能會成為文本預(yù)處理的一部分

噪聲消除和數(shù)據(jù)收集之間的界限很模糊,因此噪聲消除必須在其他步驟之前進行。例如,從JSON結(jié)構(gòu)中獲取的文本顯然要在tokenization之前消除噪音。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)收集
    +關(guān)注

    關(guān)注

    0

    文章

    73

    瀏覽量

    11401
  • 噪聲消除
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    8161
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4825

    瀏覽量

    86268

原文標(biāo)題:文本數(shù)據(jù)分析(二):文本數(shù)據(jù)預(yù)處理的方法

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    labview樹形控件讀取子文本數(shù)據(jù)(child text)

    各位大神好!我想讀取已編輯好的樹形控件的第0列之后的子文本數(shù)據(jù)(child text,或稱屬性),該如何實現(xiàn)?
    發(fā)表于 07-14 16:38

    如何讀取TXT文本數(shù)據(jù)并生成波形

    文本數(shù)據(jù)如圖片所示,求大神幫忙!
    發(fā)表于 05-14 23:06

    從一個文本數(shù)據(jù)的文件夾中,怎樣實現(xiàn)數(shù)據(jù)的連續(xù)提取

    比如 文本數(shù)據(jù)中有很多關(guān)于物體的信息,比如位置(經(jīng)度和緯度),移動速度,時間信息,而我只需要(進度和緯度)的數(shù)據(jù),這些經(jīng)度和緯度信息怎樣從文本文件夾中實現(xiàn)連續(xù)采集,重要的是連續(xù)采集,該怎么做呢
    發(fā)表于 11-03 19:00

    Python數(shù)據(jù)預(yù)處理方法

    機器學(xué)習(xí)-Python實踐Day3(特征工程--數(shù)據(jù)預(yù)處理2)
    發(fā)表于 06-03 15:55

    C預(yù)處理與C語言基本數(shù)據(jù)類型

    嵌入式系統(tǒng)設(shè)計師學(xué)習(xí)筆記二十九:嵌入式程序設(shè)計④——C預(yù)處理預(yù)處理指令表:(編碼規(guī)范:GB/T 28169-2011)關(guān)于宏定義 #denfine 詳解可點擊連接查看博主的另一篇文章 預(yù)定義宏預(yù)處理
    發(fā)表于 12-21 08:29

    LabVIEW操作Excel報表時會丟失所有的非文本數(shù)據(jù)

    LabVIEW操作Excel報表時會丟失所有的非文本數(shù)據(jù)在Report Generation Toolkit中打開我的*.xls文件,進行操作并保存。當(dāng)我再次使用Excel打開時,所有的非文本數(shù)據(jù)
    發(fā)表于 05-09 21:24

    文本數(shù)據(jù)分析:文本挖掘還是自然語言處理

    自然語言處理(NLP)關(guān)注的是人類的自然語言與計算機設(shè)備之間的相互關(guān)系。NLP是計算機語言學(xué)的重要方面之一,它同樣也屬于計算機科學(xué)和人工智能領(lǐng)域。而文本挖掘和NLP的存在領(lǐng)域類似,它關(guān)注的是識別文本數(shù)據(jù)中有趣并且重要的模式。
    的頭像 發(fā)表于 04-10 14:58 ?1.8w次閱讀
    <b class='flag-5'>文本數(shù)據(jù)</b>分析:<b class='flag-5'>文本</b>挖掘還是自然語言<b class='flag-5'>處理</b>?

    機器學(xué)習(xí)的特征預(yù)處理問題討論

    本文我們來討論特征預(yù)處理的相關(guān)問題。主要包括特征的歸一化和標(biāo)準(zhǔn)化,異常特征樣本清洗與樣本數(shù)據(jù)不平衡問題的處理
    的頭像 發(fā)表于 03-15 17:14 ?1064次閱讀

    textCNN論文與原理——短文本分類

    處理圖片的torchvision,而處理文本的少有提及,快速處理文本數(shù)據(jù)的包也是有的,那就是torchtext[1]。下面還是結(jié)合上一個案
    的頭像 發(fā)表于 12-31 10:08 ?2835次閱讀
    textCNN論文與原理——短<b class='flag-5'>文本</b>分類

    異構(gòu)文本數(shù)據(jù)轉(zhuǎn)換過程中解析XML文本方法對比

    對異構(gòu)文本數(shù)據(jù)轉(zhuǎn)換過程中解析XML文本的DOM、SAX、JOM4J方法進行對比研究,以解析時間、內(nèi)存堆占用空間、CPU占用率為評價指標(biāo)來判定4種解析方法的優(yōu)劣。該評價
    發(fā)表于 03-25 11:12 ?9次下載
    異構(gòu)<b class='flag-5'>文本數(shù)據(jù)</b>轉(zhuǎn)換過程中解析XML<b class='flag-5'>文本</b>的<b class='flag-5'>方法</b>對比

    PyTorch文本分類任務(wù)的基本流程

    文本分類是NLP領(lǐng)域的較為容易的入門問題,本文記錄文本分類任務(wù)的基本流程,大部分操作使用了**torch**和**torchtext**兩個庫。 ## 1. 文本數(shù)據(jù)預(yù)處理
    的頭像 發(fā)表于 02-22 14:23 ?1353次閱讀

    問答對話文本數(shù)據(jù):解鎖智能問答的未來

    在日常生活中,我們經(jīng)常面臨各種問題和需求,而智能問答系統(tǒng)作為一種人機交互工具,為我們提供了便捷的問題解答和信息獲取方式。而問答對話文本數(shù)據(jù)作為推動智能問答系統(tǒng)發(fā)展的關(guān)鍵資源,扮演著重要角色。 問答
    的頭像 發(fā)表于 07-13 14:19 ?773次閱讀

    大型模型的重要基石與洞察力之源之文本數(shù)據(jù)

    在當(dāng)今數(shù)字化時代,文本數(shù)據(jù)已成為人類活動的主要載體,無處不在的信息交流塑造著我們的社會、經(jīng)濟和文化。而正是這些海量的文本數(shù)據(jù),為大型模型的訓(xùn)練和應(yīng)用提供了豐富的資源,成為其重要的基石與洞察力之源
    的頭像 發(fā)表于 08-14 10:06 ?764次閱讀

    Minitab 數(shù)據(jù)清理與預(yù)處理技巧

    Minitab是一款功能強大的統(tǒng)計分析和質(zhì)量管理軟件,在數(shù)據(jù)分析過程中,數(shù)據(jù)清理與預(yù)處理是至關(guān)重要的環(huán)節(jié)。以下是一些在Minitab中進行數(shù)據(jù)清理與
    的頭像 發(fā)表于 12-02 16:06 ?1363次閱讀

    如何使用自然語言處理分析文本數(shù)據(jù)

    媒體、新聞報道、用戶評論等)收集你感興趣的文本數(shù)據(jù)數(shù)據(jù)清洗 :去除無關(guān)字符(如HTML標(biāo)簽、特殊符號等),確保文本數(shù)據(jù)干凈且一致。 2. 預(yù)處理 分詞 :將
    的頭像 發(fā)表于 12-05 15:27 ?1399次閱讀
    主站蜘蛛池模板: 日本一二线不卡在线观看 | 国产亚洲精品久久久久久牛牛 | 国产毛片久久久久久国产毛片 | 国产偷啪视频一区 | 一级片免费在线观看视频 | 久操免费视频 | 青青伊人91久久福利精品 | 亚洲成人在线免费 | 国产午夜人做人视频羞羞 | 婷婷午夜 | 99青草青草久热精品视频 | 亚洲视频久久 | 国产免费小视频 | 免费看黄色的网站 | 性夜黄 a 爽免费看 性夜黄a爽影免费看 | 久热精品在线视频 | 色偷偷成人 | 狼人综合色| 香港日本三级在线播放 | 欧美3d动漫网站 | 成片一卡三卡四卡免费网站 | jizz免费一区二区三区 | 日韩一区二区视频在线观看 | 亚洲线精品一区二区三区 | 噜噜噜天天躁狠狠躁夜夜精品 | 色视频免费观看 | 欧美xxxxbbbb| 久操视频在线观看 | 美女被免费网站在线视频九色 | 特黄特色的视频免费播放 | 免费鲁丝片一级观看 | 九九精品在线观看 | 成年人色网站 | 欧美亚洲综合另类成人 | 性欧美videofree视频另类 | 欧美极品一区 | 521色香蕉网在线观看免费 | 免费看黄在线观看 | 日本三级在线播放线观看2021 | 美女扒开尿口给男的桶个爽 | www.99在线|