在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

LSTM之父再次炮轟LeCun:你那5點

CVer ? 來源:新智元 ? 作者:新智元 ? 2022-11-30 14:31 ? 次閱讀

【導讀】看起來,繼Gary Marcus之后,LeCun的「一生之敵」可能又要多上一個了!

最近,LSTM之父Jürgen Schmidhuber一言不合又跟LeCun干上了! 其實之前稍微熟悉這位暴脾氣大爺的同學都知道,特立獨行的Jürgen Schmidhuber和機器學習社區的幾位大佬級人物之間都有過不愉快。 尤其是當「那三個人」一起拿了個圖靈獎,而Schmidhuber卻沒有之后,這位老爺子就更氣了……

說到底Schmidhuber一直認為,現在這幾個ML領軍人物,什么Bengio、Hinton、LeCun,包括「GAN」之父Goodfellow等人,他們的很多所謂「開創性成果」都是自己先提出來的,而這些人在論文中根本就沒提過他。

0dc9283e-706d-11ed-8abf-dac502259ad0.png

為此,Schmidhuber曾經專門撰文把Bengio、Hinton、LeCun于2015年發在Nature上的綜述性文章「Deep Learning」一文拿出來批判過一番。

主要是說這篇文章里的成果,哪些東西是他先提的,哪些東西是別的前輩先提的,反正不是這仨作者先提的。 怎么又吵起來了?

回到這次事件起因,實際上是LeCun在9月份發的一條推文。 內容是對David Chalmers教授提問的回答:「在過去十年中,AI最重要的智力突破(新想法)是什么?」

0deb5ae4-706d-11ed-8abf-dac502259ad0.png

10月4日,Schmidhuber在他的博客上撰文怒斥:這5個「best idea」大部分都來自于我的實驗室,而且提出的時間要遠遠早于「10年」這個時間節點。 文中Schmidhuber詳細列舉了六大證據來支撐自己的論述。

0e027fbc-706d-11ed-8abf-dac502259ad0.png

但估計是因為看到的人太少,Schmidhuber又在11月22日發推,重新把這個「冷飯」炒了一遍。 然而,相比于上一次還算激烈的爭辯,這回LeCun連理都沒理……

0e1284fc-706d-11ed-8abf-dac502259ad0.png

LSTM之父擺出「六大證據」

1. 通過神經網絡(NN)自動生成標注的「自監督學習」:至少可以追溯到我1990-91年的工作。 (I) 通過預測編碼在一個循環神經網絡(RNN)中進行自監督的目標生成,來學習在多個時間尺度和抽象層次上壓縮數據序列。

在這里,一個「自動機」RNN學會了「預測下一個輸入」的前置任務,并將傳入數據流中的意外觀察作為目標發送給「分塊機」RNN,后者學習更高層次的規律性,隨后通過適當的訓練目標將其獲得的預測知識提煉回自動機中。 這大大促進了以前無法解決的序列分類的下游深度學習任務。

0e3db0e6-706d-11ed-8abf-dac502259ad0.png

(II) 通過GAN類型的內在動機進行自監督的標注生成,其中一個世界模型NN學習預測對抗性的、標注生成的、實驗發明的控制器NN的行為后果。

0e5c1edc-706d-11ed-8abf-dac502259ad0.png

此外,我于1990年發表的論文標題中,就已經出現了「自監督」的說法。

0e7d1d9e-706d-11ed-8abf-dac502259ad0.png

但是吧,在更早期(1978年)的論文中,也用到了這個詞……

0e9701b4-706d-11ed-8abf-dac502259ad0.png

2. 「ResNets」:實際上就是我早期提出的Highway Nets。但LeCun卻認為ResNets的智力「不深」,這讓我非常傷心。 在我提出Highway Nets之前,前饋網絡最多只有幾十層(20-30層),而Highway Nets是第一個真正的深度前饋神經網絡,有數百層。

0ec93d3c-706d-11ed-8abf-dac502259ad0.png

在1990年代,我的LSTM給有監督的遞歸NN帶來了基本無限的深度。在2000年代,LSTM啟發的Highway Nets給前饋NN帶來了深度。 由此帶來的是,LSTM已經成為20世紀被引用最多的NN,而Highway Nets(ResNet)是21世紀被引用最多的NN。 可以說,它們代表了深度學習的精髓,而深度學習就是關于NN的深度。

3. 「門控-》注意力-》動態連通圖」:至少可以追溯到我的Fast Weight Programmers和1991-93年的Key-Value Memory Networks(其中的「Key-Value」被稱為「FROM-TO」)。 1993年,我引入了現在使用的術語「注意力」。

0ef1d602-706d-11ed-8abf-dac502259ad0.png

不過值得注意的是,NN中的第一個乘法門可以追溯到1965年Ivakhnenko & Lapa的深度學習機。 4. 「Differentiable memory」:同樣可以追溯到我的Fast Weight Programmers或1991年的Key-Value Memory Networks。 像傳統計算機中那樣分離存儲和控制,但以端到端差分、自適應、完全神經的方式(而不是以混合方式)。

0f017e68-706d-11ed-8abf-dac502259ad0.png

5. 「置換等變模塊,例如多頭自注意力-》Transformer」:我在1991年發表了帶有線性化自注意的Transformer。相應的「注意力」術語(internal spotlights of attention)可以追溯到1993年。

0f15d994-706d-11ed-8abf-dac502259ad0.png

6. 「GAN是過去10年中最好的機器學習理念」 你提到的這個GAN(2014年)的原理,實際上是我在1990年以人工智能好奇心的名義提出的。

0f770b2e-706d-11ed-8abf-dac502259ad0.png

上一次,還是在幾個月之前

其實這已經不是Schmidhuber和LeCun之間今年第一次發生爭執了。 在六七月間,兩人就關于LeCun發表的一篇「自主機器智能未來方向」的展望報告有來有回地吵了一番。 6月27日,Yann LeCun發表了自己積蓄幾年的論文「A Path Towards Autonomous Machine Intelligence」,并稱其為「指明AI未來發展方向之作」。

0fac9d5c-706d-11ed-8abf-dac502259ad0.png

這篇論文系統講述了關于「機器如何能像動物和人類一樣學習」的問題,長達60多頁。 LeCun表示,此文不僅是自己關于未來5-10年內關于AI發展大方向的思考,也是自己未來幾年打算研究的內容,并希望能夠啟發AI界的更多人來一起研究。

0fbf7440-706d-11ed-8abf-dac502259ad0.png

而Schmidhuber大概提前十幾天就得知這個消息,并拿到了這篇論文,當即就寫了一篇文章反駁。 按照Schmidhuber自己在博客上文章的說法,當時事情是這樣的: 2022年6月14日,一家科學媒體發布消息,說LeCun在6月27日要發布一篇報告,給我發了一份報告的草稿(當時還在保密期),并要求我發表評論。 我寫了一篇評論,告訴他們這基本上是我們以前工作的翻版,而LeCun的文章中并沒有提到。 然而,我的意見被置若罔聞。

0fd45112-706d-11ed-8abf-dac502259ad0.png

實際上,早在他這篇東西發表以前,我們就提出了LeCun在這篇文中所謂的「主要原創貢獻」的大部分內容,主要有: (1) 「認知架構,其中所有模塊都是可分的,而且許多模塊是可訓練的」(我們在1990年提出)。 (2) 「預測世界模型的分層結構,在多個抽象層次和多個時間尺度上學習表征」 (我們在1991年提出)。 (3) 「自我監督的學習范式,產生同時具有信息性和可預測性的表征」(我們的模型自1997年起就用于強化學習和世界建模了) (4) 「用于不確定性下的分層規劃」的預測模型,包括基于梯度的神經子目標生成器(1990年)、抽象概念空間的推理(1997年)、「主要通過觀察學習行動」的神經網絡(2015年),以及學習思考(2015年),都是我們先提出的。 7月14日,Yann LeCun回應,說討論要有建設性,他是這么說的:

我不想陷入一場關于「某個概念是誰發明的」這種無謂爭論中,也不想在你的回應文章中列出的160個參考文獻中深究。我認為更有建設性的做法是,指出你認為可能包含我列出的4項貢獻中的觀點和方法的4篇出版物。 正如我在論文的開頭所說,有許多概念已經存在了很長時間,你和我都不是這些概念的發明人:比如,可微調世界模型的概念,可以追溯到早期的優化控制工作。 訓練世界模型利用神經網絡學習世界模型的系統識別,這個想法可以追溯到80年代末,由Michael Jordan, Bernie Widrow, Robinson & Fallside, Kumpathi Narendra, Paul Werbos進行的工作,都比你的工作早。

在我看來,這個稻草人式的回答似乎是LeCun在轉移話題,對他的所謂「主要原創貢獻」中貪他人之功的問題避而不談。 我在7月14日回復: 關于你說的「你我都沒有發明的東西」:你的論文聲稱,用神經網絡進行系統識別可以追溯到20世紀90年代初。然而,在你的之前的回應中,你似乎同意我的觀點:這方面的第一篇論文出現在1980年代。 至于你的「主要原創貢獻」,實際上都用了我早年間的工作成果。 (一) 關于你提出的「認知架構,其中所有模塊都是可分化的,且許多模塊都是可訓練的」,「通過內在動機驅動行為」: 我在1990年就提出了用于在線學習和規劃的可分化架構,這是第一個具有 「內在動機」的控制器,用以改善世界模型,它既是生成性的,也是對抗性的;你文中引用的2014年的GAN是這個模型的一個衍生版本。 (二)關于你提出的 「在多個抽象層次和時間尺度上學習表征的預測性世界模型的分層結構」: 這是由我1991年的神經歷史壓縮機實現的。它使用預測編碼,以自監督的方式學習長序列數據的分層內部表征,大大促進了下游的學習。使用我1991年的神經網絡提煉程序,這些表征可以被折疊成一個單一的循環神經網絡(RNN)。 (三)關于你在控制方面的「自監督學習范式,產生同時具有信息性和可預測性的表征」: 這一點我在1997年提出構建的系統中已經提出。它不是預測未來輸入的所有細節,而是可以提出任意的抽象問題,并在你所說的「表征空間」中給出可計算的答案。在這個系統中,兩個名為「左腦」和「右腦」的學習模型,選擇獎勵最大化的對手進行零和博弈,偶爾還會在這種計算實驗的結果上打賭。 (四)關于你的可用于不確定情況下的分層規劃預測性可微分模型,你的文章里是這么寫的: 「一個尚未回答的問題是,配置器如何學習將一個復雜的任務分解為一連串可以由智能體單獨完成的子目標。我將把這個問題留給未來的調查。」 就別說什么未來了,實際上我在30多年前就發表過這樣的文章: 一個控制器神經網絡負責獲得額外的命令輸入,其形式為(開始,目標)。一個評估器神經網絡負責學習預測從開始到目標的預期成本。一個基于可微調循環神經網絡的子目標生成器看到了這個(開始,目標)的輸入,并使用評估器神經網絡,通過梯度下降學習一系列成本最小的中間子目標。 (五)你還強調了 「主要通過觀察來學習行為」的神經網絡。實際上我們很早就解決了這個問題,比2015年這篇文章,討論了部分可觀察環境中強化學習(RL)的一般問題。

1005b9aa-706d-11ed-8abf-dac502259ad0.png

世界模型M可能擅長預測一些事情,但對其他事情不確定。控制器C通過學習通過自我發明的問題序列(激活模式)來查詢并解釋答案(更多的激活模式)來最大化其目標函數。 C可以從學習從M中提取任何類型的算法信息中獲益,比如用于分層規劃和推理,利用M中編碼的被動觀察等等。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4785

    瀏覽量

    101268
  • LSTM
    +關注

    關注

    0

    文章

    59

    瀏覽量

    3797

原文標題:LSTM之父再次炮轟LeCun:你那5點"創新"都是抄我的!卻慘遭「已讀不回」...

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    RNN與LSTM模型的比較分析

    RNN(循環神經網絡)與LSTM(長短期記憶網絡)模型在深度學習領域都具有處理序列數據的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 一、基本原理與結構
    的頭像 發表于 11-15 10:05 ?945次閱讀

    LSTM神經網絡與其他機器學習算法的比較

    隨著人工智能技術的飛速發展,機器學習算法在各個領域中扮演著越來越重要的角色。長短期記憶網絡(LSTM)作為一種特殊的循環神經網絡(RNN),因其在處理序列數據方面的優勢而受到廣泛關注。 LSTM
    的頭像 發表于 11-13 10:17 ?1114次閱讀

    深度學習框架中的LSTM神經網絡實現

    處理、語音識別和時間序列預測等領域,LSTM已經成為一種流行的選擇。 LSTM的基本原理 LSTM網絡的核心是三個門控機制:輸入門(Input Gate)、遺忘門(Forget Gate)和輸出門(Output Gate)。這些
    的頭像 發表于 11-13 10:16 ?494次閱讀

    LSTM神經網絡在圖像處理中的應用

    長短期記憶(LSTM)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴關系。雖然LSTM最初是為處理序列數據設計的,但近年來,它在圖像處理領域也展現出了巨大的潛力。 LSTM基本原理
    的頭像 發表于 11-13 10:12 ?688次閱讀

    如何使用Python構建LSTM神經網絡模型

    構建一個LSTM(長短期記憶)神經網絡模型是一個涉及多個步驟的過程。以下是使用Python和Keras庫構建LSTM模型的指南。 1. 安裝必要的庫 首先,確保已經安裝了Python和以下庫
    的頭像 發表于 11-13 10:10 ?624次閱讀

    如何優化LSTM神經網絡的性能

    LSTM是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴關系,因此在序列數據處理中非常有效。然而,LSTM網絡的訓練可能面臨梯度消失或爆炸的問題,需要采取特定的策略來優化其性能。 1. 數據
    的頭像 發表于 11-13 10:09 ?1219次閱讀

    LSTM神經網絡的訓練數據準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡的訓練數據準備方法是一個關鍵步驟,它直接影響到模型的性能和效果。以下是一些關于LSTM神經網絡訓練數據準備的建議和方法
    的頭像 發表于 11-13 10:08 ?920次閱讀

    LSTM神經網絡的結構與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經網絡是一種特殊的循環神經網絡(RNN),設計用于解決長期依賴問題,特別是在處理時間序列數據時表現出色。以下是LSTM神經網絡
    的頭像 發表于 11-13 10:05 ?627次閱讀

    LSTM神經網絡在語音識別中的應用實例

    語音識別技術是人工智能領域的一個重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發展,特別是長短期記憶(LSTM)神經網絡的引入,語音識別的準確性和效率得到了顯著提升。 LSTM
    的頭像 發表于 11-13 10:03 ?852次閱讀

    LSTM神經網絡的調參技巧

    長短時記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在實際應用中,LSTM網絡的調參是一個復雜且關鍵的過程,直接影響
    的頭像 發表于 11-13 10:01 ?873次閱讀

    LSTM神經網絡的優缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經網絡是一種特殊的循環神經網絡(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發表于 11-13 09:57 ?2394次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短期記憶(LSTM)網絡的出現
    的頭像 發表于 11-13 09:56 ?499次閱讀

    LSTM神經網絡在時間序列預測中的應用

    時間序列預測是數據分析中的一個重要領域,它涉及到基于歷史數據預測未來值。隨著深度學習技術的發展,長短期記憶(LSTM)神經網絡因其在處理序列數據方面的優勢而受到廣泛關注。 LSTM神經網絡簡介
    的頭像 發表于 11-13 09:54 ?893次閱讀

    LSTM神經網絡的基本原理 如何實現LSTM神經網絡

    LSTM(長短期記憶)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在處理序列數據時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發表于 11-13 09:53 ?664次閱讀

    LSTM模型的基本組成

    長短期記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN)架構,它在處理序列數據時能夠捕捉長期依賴關系,有效解決了傳統RNN在處理長序列時容易出現
    的頭像 發表于 07-10 17:01 ?1631次閱讀
    主站蜘蛛池模板: 在线免费观看一级毛片 | 国产精品久久久久久影院 | 天堂中文网 | 福利姬 magnet| 亚洲人成电影在线播放 | 狠狠干夜夜操 | 欧美三级免费网站 | 人人看人人澡 | 免费免费啪视频在线 | 播五月综合 | 性欧美xxx 不卡视频 | 国产精品亚洲玖玖玖在线靠爱 | 特黄一级黄色片 | 国产免费爽爽视频免费可以看 | 亚洲综合成人网 | 婷婷丁香色综合狠狠色 | 久久婷婷一区二区三区 | 91久久澡人人爽人人添 | 欧美性白人极品1819hd | 欧美1024性视频 | 激情综合五月亚洲婷婷 | 一个综合色 | 欧美亚洲综合图区在线 | 欧美大狠狠大臿蕉香蕉大视频 | 1024国产欧美日韩精品 | 免费看欧美一级特黄a大片 免费看欧美一级特黄a大片一 | 久久精品操| 性欧美黑人xxxx | 免费一级毛片私人影院a行 免费一级毛片无毒不卡 | 2022欧美高清中文字幕在线看 | 九九51精品国产免费看 | 婷婷亚洲综合五月天小说在线 | 伊人狼人在线 | 国内精品伊人久久大香线焦 | 开心综合网 | 美国色网站 | 性配久久久 | 中国毛茸茸bbxx | 久久天天躁狠狠躁夜夜爽蜜月 | 国产精品五月天 | 高颜值露脸极品在线播放 |