在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

我們可以使用transformer來干什么?

深度學習自然語言處理 ? 來源:AI部落聯盟 ? 作者:AI部落聯盟 ? 2021-04-22 10:49 ? 次閱讀

前言

2021年4月,距離論文“Attention is all you need”問市過去快4年了。這篇論文的引用量正在沖擊2萬大關。

筆者所在的多個學習交流群也經常有不少同學在討論:transformer是什么?transformer能干啥?為什么要用transformer?transformer能替代cnn嗎?怎么讓transformer運行快一點?以及各種個樣的transformer技術細節問題。

解讀以上所有問題不再本文范疇內,但筆者也將在后續文章中繼續探索以上問題。本文重點關注:我們用transformer干啥?

我們用transformer干啥?筆者突然發現這句話有兩種理解(orz中文博大精深),希望我的語文不是體育老師教的。

疑問句:

我們使用transformer在做什么?

解決什么深度學習任務?

反問句:

我們用用transformer干啥?

為啥不用LSTM和CNN或者其他神經網絡呢?

疑問句:用transformer干啥?

谷歌學術看一眼。

為了簡潔+有理有據回答這個問題(有缺失之處忘大家指出),筆者首先在谷歌學術上搜尋了一下“Attention is all you need”看了一下被引,到底是哪些文章在引用transformer呢?

“Attention is all you need”被引:19616次。

先看一下前幾名引用的被引:

最高引用的“Bert:Pre-training of deep bidirectional transformers for language understanding“被引:17677次。BERT在做自然語言處理領域的語言模型。

第2和4名:“Squeeze and Excitaion Networks”被引用6436次,“Non-local neural networks”。計算機視覺領域,但還沒有直接用transformer。

第3名:“Graph attention networks”被引用3413,一種圖神經網絡,該文也不是直接使用transformer的,但使用了attention。

第5和6名:“Xlnet:Generalized autoregressive pretraining for language undersstanding“ 2318次和 ”Improving language understanding by generative pretraining“ 1876次。自然語言處理領域預訓練/語言模型/生成模型。

第7名“self-attention generative adversarial networks” 1508次?;趕elf-attetnion的生成對抗網絡。

第8、9、10都屬于自然語言處理領域,一個是GLUE數據集,一個做multi-task learning。

從Top的引用已經看出自然語言處理領域肯定是使用transformer的大頭了。隨后筆者對熟悉的深度學習任務關鍵詞搜了一下被引用:

計算機視覺領域vision前2的被引用:“Vibert”和“Stand-alone self-attetnion in vision model”分別為385和171次。

語音信號處理領域speech:“state-of-the-art speech recognition with sequence-to-sequence model” 被引710次。

多模態任務modal:“Unicoder-Vl:

A universal encoder for vision and language by cross-model pre-training。

檢索領域etrieval:“multilingual universal sentence encoder for semantic retrieval”被引73次

推薦領域recommendation:驚訝的我發現居然只有10篇文章orz。

初步結論:transformer在自然語言處理任務中大火,隨后是語音信號領域和計算機視覺領域,然后信息檢索領域也有所啟航,推薦領域文章不多似乎剛剛起步。

執著的筆者擴大搜索范圍直接谷歌搜索了一下,找到了這篇文章BERT4Rec(被引用128):”BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer“。

Github上搜一搜。

排名第1的是HuggingFace/transformers代碼庫。筆者對這個庫還算熟悉,但最近瘋狂新增的模型缺失還沒有完全跟進過,于是也整理看了一下。

7d5ac588-a295-11eb-aece-12bb97331649.png

圖1 HuggingFace/transformers代碼庫關系圖

如圖1所示,左邊展示了Huggingface/transformers代碼庫能處理的各種深度學習任務,中間展示的是處理這些任務的統一流水線(pipeline),右邊展示的是與任務對應的transformers模型名稱,下方表示用transformers解決這些深度學習任務可以在cpu或者gpu上進行,可以使用tensorflow也可以使用pytorch框架。

那么根據谷歌和github結果基本可以得到這個核心結論啦:transformer能干啥?目前已有的transformer開源代碼和模型里自然語言處理任務占大頭(幾乎覆蓋了所有自然語言處理任務),隨后是計算機視覺和語音信號處理,最后自然而然進行多模態信號處理啦,推薦系統中的序列建模也逐步開始應用transformer啦。

有一點值得注意:自然語言處理里,所有研究同學的詞表庫基本統一,所有谷歌/facebook在大規模語料上預訓練的transformer模型大家都可以使用。推薦系統不像自然語言處理,各家對user ID,Item ID或者物品類別ID的定義是不一樣的,所以各家的pretrain的模型基本也沒法分享給其他家使用(哈哈哈商業估計也不讓分享),也或許也是為什么transformer的開源推薦系統較少的原因之一吧,但不代表各大廠/研究機構用的少哦。

反問句:用transformer干啥?

為什么非要使用transformer呢?

筆者從一個散修(哈哈修仙界對修煉者的一種稱呼)的角度聊一聊自己的看法。

不得不用。

首先谷歌/Facebook一眾大廠做出來了基于transformer的BERT/roberta/T5等,刷新了各種任務的SOTA,還開源了模型和代碼。

注意各種任務啊,啊這,咱們做論文一般都得在幾個數據集上驗證自己的方法是否有效,人家都SOTA了,咱得引,得復現呀,再說,站在巨人的肩上創下新SOTA也是香的。

的確好用。

Transformer是基于self-attetion的,self-attention的確有著cnn和lstm都沒有的優勢:

比如比cnn看得更寬更遠,比lstm訓練更快。

重復累加多層multi-head self-attetion還在被不短證明著其強大的表達能力!

改了繼續用。

如果不說transformer的各種優點,說一個大缺點自然就是:

參數量大、耗時耗機器。

但這些問題又被一眾efficient transformers再不斷被解決。

比如本來整型數運算的硬件開發板無法使用transformers,隨后就有INT-BERT說我們不僅可以用,還能更快更好。

上手就用。

以Huggingface/Transformers為例子,一個代碼庫包含多種深度學習任務,多個開源的transfromer模型,各種預訓練transformer模型,以至于各種深度學習任務上手就來,十分方便。

筆者似乎并沒有看到其他模型結構有如此大的應用范圍和規模了。

未來還要用。

從上一章節可以看出,transformer這股風已經從自然語言處理領域吹出去了,其他領域的SOTA也在不斷被transformer打破,那么以為這,自然語言處理領域的歷史逐漸在其他領域復現(當然只是筆者個人觀點哈)。

原文標題:我們用transformer干啥?

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Transforme
    +關注

    關注

    0

    文章

    12

    瀏覽量

    8873
  • 深度學習
    +關注

    關注

    73

    文章

    5557

    瀏覽量

    122572

原文標題:我們用transformer干啥?

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    粘接聚酰亞胺PI膜除了使用PI膜專用UV膠粘接,還可以使用熱固化環氧膠解決!

    粘接聚酰亞胺PI膜可以使用PI膜專用UV膠粘接,但使用UV膠粘接時,需要粘接材料至少有一方要透UV紫外光方可,如不能透UV光,那么粘接PI這種難于粘接的材料時,還可以使用熱固化環氧膠解決!熱固化環
    的頭像 發表于 05-07 09:11 ?216次閱讀
    粘接聚酰亞胺PI膜除了使用PI膜專用UV膠粘接,還<b class='flag-5'>可以使</b>用熱固化環氧膠<b class='flag-5'>來</b>解決!

    鉗形表是干什么用的?點開看看就知道了

    的運行過程中,我們需要實時了解電路中的電流大小,以判斷設備是否正常工作。比如工廠里的大型電機,通過鉗形表可以快速準確地測量電機運行時的電流。如果電流值超出了正常范圍,就可能意味著電機存在故障,需要及時檢修
    發表于 05-06 15:34

    是否可以使用FX2LP對XCF02SVO20C進行編程?

    我們有一款使用 FX2LP 和 XCF02SVO20C PROM 的產品。在我們的系統中,我們利用 PROM 更新 FPGA 固件。由于我不是固件專家,我想問是否
    發表于 05-06 09:48

    AI云服務平臺可以干什么

    當今,AI云服務平臺,作為連接技術與應用的橋梁,正以其廣泛的功能覆蓋和深度應用場景,逐步滲透到社會經濟的各個角落。下面,AI部落小編帶您詳細了解AI云服務平臺。
    的頭像 發表于 02-27 10:11 ?366次閱讀
    AI云服務平臺<b class='flag-5'>可以</b><b class='flag-5'>干什么</b>

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT中的“T”)的專用芯片。 將
    的頭像 發表于 01-06 09:13 ?1041次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    PLM項目管理系統主要干什么?制造業企業的PLM應用與效益

    在制造業的數字化轉型浪潮中,PLM(Product Lifecycle Management,產品全生命周期管理)項目管理系統扮演著至關重要的角色。那么,PLM項目管理系統主要干什么呢?簡而言之
    的頭像 發表于 12-04 11:19 ?1288次閱讀
    PLM項目管理系統主要<b class='flag-5'>干什么</b>?制造業企業的PLM應用與效益

    Transformer模型的具體應用

    如果想在 AI 領域引領一輪新浪潮,就需要使用到 Transformer
    的頭像 發表于 11-20 09:28 ?1481次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發表于 11-20 09:27 ?919次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    TLC555這個電路的二極管是干什么用的,它是從哪來的?

    就這個電路二極管不知道干什么用的,它是從哪來的? 仿真結果跟官方的不一樣
    發表于 11-08 15:37

    AI開發平臺可以干什么

    AI開發平臺是指提供一系列工具、庫、框架和服務,旨在幫助開發者更快速、更高效地設計、訓練、部署和管理AI模型的綜合性平臺。以下,是對AI開發平臺的介紹,由AI部落小編整理發布。
    的頭像 發表于 11-05 09:53 ?581次閱讀

    如何限制容器可以使用的CPU資源

    默認情況下容器可以使用的主機 CPU 資源是不受限制的。和內存資源的使用一樣,如果不對容器可以使用的 CPU 資源進行限制,一旦發生容器內程序異常使用 CPU 的情況,很可能把整個主機的 CPU 資源耗盡,從而導致更大的災難。本文將介紹如何限制容器
    的頭像 發表于 10-24 17:04 ?630次閱讀
    如何限制容器<b class='flag-5'>可以使</b>用的CPU資源

    用INA2332放大信號,可以用正負電源嗎?

    本人用INA2332放大信號,由于由負信號輸入(幾百毫伏脈沖信號)。所以用了正負5V電源,然后好像IC就燒了(V+和V-導通了)。應該是可以用正負電源的吧。還有就是8腳和14腳的shutdown腳是干什么的。是輸入信號還是輸出信號。
    發表于 08-28 07:57

    LM318 COMP管腳是什么引腳,干什么用的?

    LM318 COMP 管腳是什么引腳,干什么用的,PSPICEFORTI 里面沒有318的COMP管腳在怎么應用
    發表于 07-31 07:45

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結構、訓練過程、關鍵組件以及實現細節。
    的頭像 發表于 07-02 11:41 ?2506次閱讀

    ESP32-C3的USB在計算機上識別的COM口能夠干什么用?

    VSCODE+PLATFORMIO或ECLIPCE的調試配置過程出一個教程(采用ESP32-C3 USBJTAG) 2:ESP32-C3的USB在計算機上識別的COM口能夠干什么用?資料上介紹可下
    發表于 06-21 06:41
    主站蜘蛛池模板: 日本免费一区二区三区视频 | 亚洲综合校园春色 | 色www免费视频 | 九九热免费观看 | 成人aaa| 国产精品伦子一区二区三区 | 粉嫩尤物在线456 | 激情综合网五月激情 | 五月天丁香婷婷开心激情五月 | 免费视频观看 | 国产精品资源在线 | 狠狠干夜夜操 | 你懂的在线观看网址 | 欧美性aaa | 国产在线a不卡免费视频 | 毛片网站免费 | 男女做性无遮挡免费视频 | 毛片在线播放网站 | 中文免费观看视频网站 | 三级网站在线 | bt天堂资源在线官网bt | 黄色网页在线观看 | 欧美伦理一区 | 欧美色图在线视频 | 日本高清午夜色wwwσ | 免费一级特黄特色大片在线 | 午夜高清免费在线观看 | 男人天堂网www | 欧美一区二区三区在线观看免费 | 五月天激情丁香 | 国产精品激情综合久久 | 男人的视频网站 | 国产香蕉一区二区精品视频 | 国产三级视频 | 欧美性色黄 | 禁漫羞羞a漫入口 | 四虎影院成人在线观看 | 国产一区中文字幕 | 天天干天天干天天 | 天堂中文在线观看 | a级精品九九九大片免费看 a级毛毛片看久久 |