91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自然語言處理BERT中CLS的效果如何?

深度學習自然語言處理 ? 來源:AI自然語言處理與知識圖譜 ? 作者:Elesdspline ? 2021-04-04 17:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

要說自然語言處理在18年最奪目閃耀的是什么事情,那當屬 BERT 刷新各個任務的記錄了,至今已經過去了近兩年半的時間,但其影響力未曾衰減,無論學術界還是工業界,很多的工作與部署都圍繞其展開,對很多的下游任務都有舉足輕重的作用,真的是里程碑啊。

相信大家都有過BERT、ALBERT等預訓練語言模型應用在自己任務上的實踐經歷,可能是情感分析、分類、命名實體識別、閱讀理解、相似度計算等等,使用的方法也無非是在自己任務上 fine-tune 或者作為預訓練Embedding,使用的預訓練模型大多是公開的,大佬們(財大氣粗、資源無數)訓練好的。(有錢真好)

在用預訓練模型的時候,根據任務的不同,用到信息也不同,有的需要是詞表示,比如命名實體識別、詞性標注等任務,有的需要的是句子表示,比如分類、句子語意匹配等。這里我要說的句子表示這一類的任務,大家經常會用到的 [CLS] 特征信息作為句子向量表示,CLS 作為 BERT/ALBERT序列信息中特殊的一個存在,在最開始設計模型的時候便考慮將其作為后續文本分類的表示,然而直接使用 CLS 的效果真的會滿足我們的預期嘛?相信大家在實踐的過程中都有所體會~,另外 ALBERT 和 BERT 在下游任務應用上面孰好孰壞,是否有一個定論?

我最近看到了一篇 Arxiv 的文章,題目是 《Evaluation of BERT and ALBERT Sentence Embedding Performance on Downstream NLP Tasks》,這篇文章在 BERT/ALBERT 提取信息作為句子信息表示應用在下游任務,對其效果進行了評測,或許會解答我們實踐中的疑惑,也或者會給我們一些預訓練模型在下游任務應用的啟發,讓我們來看下~

評測對比

有一系列的對比實驗,來看在下游任務上面的效果~

[CLS] embeddings

CLS 通過 Self-Attention 機制來獲取句子級別的信息表示,在不同的任務上 Fine-tune 之后,CLS 會捕捉特定環境下的上下文信息表示。

Pooled embeddings

將文本中的所有詞做 Avg-pooling 或者 max-pooling。

Sentence-X(SBERT/ALBERT)

BERT 在語義相似度任務上面也取得了很不錯的效果,然后其內部的結構在計算過程中會導致非常耗時,不適合做語義相似度匹配任務,特別是在工業界,BERT 的耗時無法滿足上線的需要。針對這個問題,有人提出 Sentence-BERT,采用孿生網絡模型框架,將不同的句子輸入到參數共享的兩個BERT模型中,獲取句子信息表示,用于語義相似度計算,最終相比BERT效率大大提升,滿足工業界線上需要。SBERT 從65小時降到5秒,具體詳見參考資料2。

99cb1f6c-88e9-11eb-8b86-12bb97331649.png

CNN-SBERT/SALBERT

在上圖中,SBERT 采用 Avg-pooling 獲取句子向量表示,本文將其替換成 CNN 網絡結構獲取句子向量表示。

99fe6886-88e9-11eb-8b86-12bb97331649.png

結果分析

評測任務

STS:Semantic Textual Similarity

NLI:Natural Language Inference

評測指標

Pearson and Spearman’s rank coefficients(皮爾遜和斯皮爾曼相關系數)

評測數據

Semantic Textual Similarity benchmark(STSb)

Multi-Genre Natural Language Inference(MultiNLI)

Stanford Natural Language Inference(SNLI)

上面列出來相關的評測任務、評測指標以及評測所用到的數據,下面先給出一張結果表,然后再詳細分析~

9a3609a8-88e9-11eb-8b86-12bb97331649.png

詳細分析

微調有效:這個是符合我們認知的,肯定是微調的效果要好。

CLS 效果:CLS 的效果要遜色很多,無論是在微調上面,還是不微調上面,CLS的效果都要遠遜色于平均池化操作或者其他方法。

不同方法效果:總體上來看,CNN-BERT > SBERT > Avg pooling > CLS

BERT 與 ALBERT:從上圖中大概能夠看出,不微調的情況下,兩者的效果差不多,但是微調之后,ALBERT的效果要比BERT差很多,僅僅在STSb上微調的時候,CLS 和平均池化的方法要好于BERT。

CNN的效果

從上圖來看,最好的結果是采用了 CNN 網絡結構,說明 CNN 起到了正向的作用,仔細觀察發現,CNN 對 ALBERT 的改進要遠大于對 BERT 的改善提高。ALBERT 由于內部參數共享,可能存在不穩定性,CNN 網絡結構或許可以減緩這種不穩定性。

下圖也進行了一些對比,在幾個不同的數據集上驗證 CNN 的有效性,從最終的 Avg 結果來看,CNN 網絡結構對 ALBERT 有改善提升。

9a91a5e2-88e9-11eb-8b86-12bb97331649.png

以上是根據實驗結果進行的簡單分析,其中有一些結論和對比可以在我們日常的實踐中借鑒并嘗試,說不定會有不錯的效果~

原文標題:【BERT】BERT中CLS效果真的好嘛?這篇文章告訴你答案

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1806

    文章

    49011

    瀏覽量

    249381
  • 自然語言
    +關注

    關注

    1

    文章

    292

    瀏覽量

    13654

原文標題:【BERT】BERT中CLS效果真的好嘛?這篇文章告訴你答案

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何優化自然語言處理模型的性能

    優化自然語言處理(NLP)模型的性能是一個多方面的任務,涉及數據預處理、特征工程、模型選擇、模型調參、模型集成與融合等多個環節。以下是一些具體的優化策略: 一、數據預處理優化 文本清洗
    的頭像 發表于 12-05 15:30 ?1697次閱讀

    如何使用自然語言處理分析文本數據

    使用自然語言處理(NLP)分析文本數據是一個復雜但系統的過程,涉及多個步驟和技術。以下是一個基本的流程,幫助你理解如何使用NLP來分析文本數據: 1. 數據收集 收集文本數據 :從各種來源(如社交
    的頭像 發表于 12-05 15:27 ?1573次閱讀

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類語言。機器學習(Ma
    的頭像 發表于 12-05 15:21 ?1981次閱讀

    語音識別與自然語言處理的關系

    在人工智能的快速發展,語音識別和自然語言處理(NLP)成為了兩個重要的技術支柱。語音識別技術使得機器能夠理解人類的語音,而自然語言處理則讓
    的頭像 發表于 11-26 09:21 ?1497次閱讀

    什么是LLM?LLM在自然語言處理的應用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學習技術,尤其是變換器(Transformer)架構。變換器模型因其自注意力(Self-Attention)機制而聞名,這種機制使得模型能夠捕捉文本的長距
    的頭像 發表于 11-19 15:32 ?3644次閱讀

    ASR與自然語言處理的結合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領域的兩個重要分支,它們在許多應用緊密結合,共同構成了自然語言理解和
    的頭像 發表于 11-18 15:19 ?1025次閱讀

    卷積神經網絡在自然語言處理的應用

    。 卷積神經網絡的基本原理 卷積神經網絡是一種前饋神經網絡,它通過卷積層來提取輸入數據的特征。在圖像處理,卷積層能夠捕捉局部特征,如邊緣和紋理。在自然語言處理
    的頭像 發表于 11-15 14:58 ?803次閱讀

    循環神經網絡在自然語言處理的應用

    自然語言處理(NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,循環神經網絡(RNN)因其在處理序列數據方面的優勢而在NLP
    的頭像 發表于 11-15 09:41 ?813次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短期記憶(LSTM)網絡的出現
    的頭像 發表于 11-13 09:56 ?1158次閱讀

    自然語言處理與機器學習的區別

    在人工智能的快速發展自然語言處理(NLP)和機器學習(ML)成為了兩個核心的研究領域。它們都致力于解決復雜的問題,但側重點和應用場景有所不同。 1. 自然語言
    的頭像 發表于 11-11 10:35 ?1542次閱讀

    自然語言處理的應用實例

    在當今數字化時代,自然語言處理(NLP)技術已經成為我們日常生活的一部分。從智能手機的語音助手到在線客服機器人,NLP技術的應用無處不在。 1. 語音識別與虛擬助手 隨著Siri、Google
    的頭像 發表于 11-11 10:31 ?1608次閱讀

    使用LLM進行自然語言處理的優缺點

    自然語言處理(NLP)是人工智能和語言學領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領域的一
    的頭像 發表于 11-08 09:27 ?2443次閱讀

    Llama 3 在自然語言處理的優勢

    自然語言處理(NLP)的快速發展,我們見證了從基于規則的系統到基于機器學習的模型的轉變。隨著深度學習技術的興起,NLP領域迎來了新的突破。Llama 3,作為一個假設的先進NLP模型,代表了這一
    的頭像 發表于 10-27 14:22 ?729次閱讀

    AI大模型在自然語言處理的應用

    AI大模型在自然語言處理(NLP)的應用廣泛且深入,其強大的語義理解和生成能力為NLP任務帶來了顯著的性能提升。以下是對AI大模型在NLP應用的介紹: 一、核心應用 文本生成 AI
    的頭像 發表于 10-23 14:38 ?1539次閱讀

    AI智能化問答:自然語言處理技術的重要應用

    自然語言處理(NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。問答系統作為NLP的一個重要應用,能夠精確地解析用戶以自然語言提出的問題,并從包含豐富
    的頭像 發表于 10-12 10:58 ?1094次閱讀
    AI智能化問答:<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>技術的重要應用
    主站蜘蛛池模板: 久久大尺度 | 国产午夜精品理论片 | 一区二区三区午夜 | 狠狠se| 国产成人三级 | 日本在线观看高清不卡免v 日本在线观看永久免费网站 | 嫩草影院入口一二三免费 | 午夜寂寞视频在线观看 | 性夜黄 a 爽免费看 性夜黄a爽影免费看 | 免费在线黄色网址 | 亚洲一区在线免费观看 | 欧美特级黄 | 亚洲精品久久久久午夜 | 欧美私人网站 | 成 人 色综合 | 免费国产综合视频在线看 | 伊人不卡久久大香线蕉综合影院 | 欧美婷婷六月丁香综合色 | 黄色午夜网站 | 四虎精品影院 | 日本不卡高清视频 | 国产一区二区精品 | 人人艹人人草 | 欧美日本一区 | 你懂的在线观看网站 | 性欧美激情在线观看 | xxxx欧美69免费| 久久电影福利 | 国产综合13p | 丁香婷婷开心激情深爱五月 | 久热草在线 | yy6080亚洲半夜理论一级毛片 | 色五月视频| 又色又爽又黄视频 | 手机看片日韩在线 | 亚洲伦理一区二区 | 操天天| 婷婷色综合网 | 欧美一区二区三区不卡片 | 天天干天天操天天爽 | 日日爱网址 |