在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

電子工程師 ? 來源:fqj ? 2019-05-17 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ICLR 2019過去有幾天了,作為今年上半年表現(xiàn)最為亮眼的人工智能頂會(huì)共收到1591篇論文,錄取率為31.7%。

為期4天的會(huì)議,共有8個(gè)邀請演講主題,內(nèi)容包括:算法公平性的進(jìn)展、對抗機(jī)器學(xué)習(xí)、發(fā)展自主學(xué)習(xí):人工智能,認(rèn)知科學(xué)和教育技術(shù)、用神經(jīng)模型學(xué)習(xí)自然語言界面等等。

當(dāng)然,除此之外,還有一大堆的poster。這些都彰顯了ICLR的規(guī)格之高,研究者實(shí)力之強(qiáng)大。

透過現(xiàn)象看本質(zhì),一位來自越南的作家和計(jì)算機(jī)科學(xué)家Chip Huyen總結(jié)了ICLR 2019年的8大趨勢。他表示。會(huì)議組織者越來越強(qiáng)調(diào)包容性,在學(xué)術(shù)研究方面RNN正在失去研究的光芒......

1.包容性。

組織者強(qiáng)調(diào)了包容性在人工智能中的重要性,確保前兩次主要會(huì)談的開幕詞邀請講話是關(guān)于公平和平等的。

但是還是有一些令人擔(dān)憂的統(tǒng)計(jì)數(shù)據(jù):

只有8.6%的演講者和15%的參與者是女性。

在所有的LGBTQ+(Lesbian Gay Bisexual Transgender Queer:性別獨(dú)角獸群體)研究人員中,有2/3的研究人員并不是專業(yè)的。

所有8位特邀演講者都是白人。

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

來自薩沙·拉什(Sasha Rush)開幕詞的截圖

不幸的是,這位AI研究人員仍然感到毫無歉意。雖然其他所有的研討會(huì)的訂閱量爆滿,但在Yoshua Bengio出現(xiàn)之前,AI賦能社會(huì)(AI for Social Good)研討會(huì)一直空無一人。在我在ICLR的眾多談話中,沒有人提到過差異性,除了有一次我大力聲討地問為什么我被邀請參加這場似乎不適合我的技術(shù)活動(dòng)?一位好朋友說:“有點(diǎn)冒犯的回答是,因?yàn)槟闶且粋€(gè)女人。”

原因之一是這個(gè)話題不是“技術(shù)性的”,因此在上面花時(shí)間將無助于你在研究領(lǐng)域的職業(yè)發(fā)展。另一個(gè)原因是仍然存在一些反對的偏見。有一次,一位朋友告訴我,不要理睬一位在群聊中嘲笑我的人,因?yàn)椤澳侨讼矚g取笑那些談?wù)撈降群筒町愋缘娜恕!蔽矣幸恍┡笥?,他們不?huì)在網(wǎng)上討論任何關(guān)于差異性的話題,因?yàn)樗麄儾幌搿芭c這種話題聯(lián)系在一起”。

2.無監(jiān)督表征學(xué)習(xí)與遷移學(xué)習(xí)

無監(jiān)督表示學(xué)習(xí)的一個(gè)主要目標(biāo)是從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)有用的數(shù)據(jù),以便用于后續(xù)任務(wù)。在自然語言處理中,無監(jiān)督的表示學(xué)習(xí)通常是通過語言建模來完成的。然后將學(xué)習(xí)到的表示用于諸如情感分析、名字分類識(shí)別和機(jī)器翻譯等任務(wù)。

去年發(fā)表的一些最令人興奮的論文是關(guān)于自然語言處理中的無監(jiān)督學(xué)習(xí)的,首先是ApacheElmo(Peters等人)、DB2ULMFiT(Howard等人)、ApacheOpenAI的GPT(Radford等人)、IBMBert(Devlin等人),當(dāng)然還有,比較激進(jìn)的202GPT-2(Radford等人)。

完整的GPT-2模型是在 ICLR演示的,它的表現(xiàn)非常好。您可以輸入幾乎任何提示,它將撰寫文章的其余部分。它可以撰寫B(tài)uzzFeed文章(美國新聞RSS訂閱,類似于今日頭條)、小說、科學(xué)研究論文,甚至是虛構(gòu)單詞的定義。但這聽起來還不完全是人類的感覺。該團(tuán)隊(duì)正在研究GPT-3,會(huì)比現(xiàn)在更好。我迫不及待地想看看它能產(chǎn)生什么。

雖然計(jì)算機(jī)視覺社區(qū)是第一個(gè)將遷移學(xué)習(xí)用于工作的社區(qū),但基礎(chǔ)任務(wù)-在ImageNet上訓(xùn)練分類模型-仍然受到監(jiān)督。我不斷從兩個(gè)社區(qū)的研究人員那里聽到的一個(gè)問題是:“我們?nèi)绾尾拍塬@得為圖像工作的無監(jiān)督學(xué)習(xí)?”

盡管大多數(shù)大牌研究實(shí)驗(yàn)室已經(jīng)在進(jìn)行這方面的研究,但在ICLR上只有一篇論文:“元學(xué)習(xí)無監(jiān)督學(xué)習(xí)的更新規(guī)則”(Metz et al.)。他們的算法不升級(jí)權(quán)值,而是升級(jí)學(xué)習(xí)規(guī)則。

然后,在少量的標(biāo)記樣本上對從學(xué)習(xí)規(guī)則中學(xué)習(xí)到的表示進(jìn)行調(diào)整,以完成圖像分類任務(wù)。他們找到了學(xué)習(xí)規(guī)則,在MNIST和FashionMNIST數(shù)據(jù)集上達(dá)到了70%的準(zhǔn)確率。作者不打算發(fā)布代碼,因?yàn)椤八c計(jì)算有關(guān)”。在256個(gè)GPU上,外層循環(huán)需要大約100k的訓(xùn)練步驟和200個(gè)小時(shí)。

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

關(guān)于元學(xué)習(xí)的內(nèi)層和外層循環(huán)(Metz等人)

我有一種感覺,在不久的將來,我們將看到更多這樣的研究??捎糜跓o監(jiān)督學(xué)習(xí)的一些任務(wù)包括:自動(dòng)編碼、預(yù)測圖像旋轉(zhuǎn)(Gidaris等人的這篇論文是2018年ICLR的熱門文章),預(yù)測視頻中的下一幀。

3.機(jī)器學(xué)習(xí)的“復(fù)古”

機(jī)器學(xué)習(xí)中的思想就像時(shí)尚:它們繞著一個(gè)圈走。在海報(bào)展示會(huì)上走來走去,就像沿著記憶小路在漫步。即使是備受期待的ICLR辯論最終也是由先驗(yàn)與結(jié)構(gòu)結(jié)束,這是對Yann LeCun和 Christopher Manning去年討論的回溯,而且與貝葉斯主義者和頻率論者之間的由來的辯論相似。

麻省理工學(xué)院媒體實(shí)驗(yàn)室的語言學(xué)習(xí)和理解項(xiàng)目于2001年終止,但基礎(chǔ)語言學(xué)習(xí)今年卷土重來,兩篇論文都是基于強(qiáng)化學(xué)習(xí):

DOM-Q-Net:基于結(jié)構(gòu)化語言(Jia等人)的RL-一種學(xué)習(xí)通過填充字段和單擊鏈接導(dǎo)航Web的RL算法,給定一個(gè)用自然語言表示的目標(biāo)。

BabyAI:一個(gè)研究扎根語言學(xué)習(xí)樣本效率的平臺(tái)(Chevalier-Boisveret等人)-這是一個(gè)與OpenAI訓(xùn)練兼容的平臺(tái),具有一個(gè)手動(dòng)操作的BOT代理,它模擬人類教師來指導(dǎo)代理學(xué)習(xí)一種合成語言。

AnonReviewer4很好地總結(jié)了我對這兩篇論文的看法:

“…這里提出的方法看起來非常類似于語義解析文獻(xiàn)中,已經(jīng)研究過一段時(shí)間的方法。然而,這篇論文只引用了最近深入的RL論文。我認(rèn)為,讓作者熟悉這些文學(xué)作品將會(huì)使他們受益匪淺。我認(rèn)為語義解析社區(qū)也會(huì)從這個(gè)…中受益。但這兩個(gè)社區(qū)似乎并不經(jīng)常交談,盡管在某些情況下,我們正在解決非常相似的問題。”

確定性有限自動(dòng)機(jī)(DFA)也在今年的深度學(xué)習(xí)領(lǐng)域中占據(jù)了一席之地,它有兩篇論文:

表示形式語言的:有限自動(dòng)機(jī)(FA)與遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的比較(Michalenko等人)。

學(xué)習(xí)遞歸策略網(wǎng)絡(luò)的有限狀態(tài)表示(Koulet等人)

這兩篇論文背后的主要?jiǎng)訖C(jī)是,由于RNN中隱藏狀態(tài)的空間是巨大的,是否有可能將狀態(tài)數(shù)量減少到有限的狀態(tài)?我猜測DFA是否能有效地代表語言的RNN,但我真的很喜歡在訓(xùn)練期間學(xué)習(xí)RNN,然后將其轉(zhuǎn)換為DFA以供參考的想法,正如Koul等人的論文中所介紹的那樣。最終的有限表示只需要3個(gè)離散的記憶狀態(tài)和10場觀察的乒乓球游戲。有限狀態(tài)表示也有助于解釋RNN。

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

來自RNN的學(xué)習(xí)DFA的三個(gè)階段(Koul等人)

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

提取的自動(dòng)機(jī)(Koul等人)

4.RNN正在失去研究的光芒

2018年至2019年提交(論文)主題的相對變化表明,RNN的下降幅度最大。這并不奇怪,因?yàn)楸M管RNN對于序列數(shù)據(jù)是直觀的,但它們有一個(gè)巨大的缺點(diǎn):它們不能被并行化,因此不能利用自2012年以來推動(dòng)研究進(jìn)展的最大因素:計(jì)算能力。RNN在CV或RL中從未流行過,而對于NLP,它們正被基于注意力的體系結(jié)構(gòu)所取代。

RNN正在失去光芒。圖來自ICLR 2019數(shù)據(jù)補(bǔ)充

這是不是意味著RNN已經(jīng)over了?不一定。今年的兩個(gè)最佳論文獎(jiǎng)之一是“有序神經(jīng)元:將樹結(jié)構(gòu)集成到遞歸神經(jīng)網(wǎng)絡(luò)中”。(Shen等人)。除了本文和上面提到的兩篇關(guān)于自動(dòng)機(jī)的文章之外,今年又有9篇關(guān)于RNN的論文被接受,其中大多數(shù)都深入研究了RNN的數(shù)學(xué)基礎(chǔ),而不是發(fā)現(xiàn)新的RNN應(yīng)用方向。

RNN在行業(yè)中仍然非?;钴S,特別是對于交易公司等處理時(shí)間序列數(shù)據(jù)的公司來說,不幸的是,這些公司通常不會(huì)發(fā)布它們的工作成果。即使RNN現(xiàn)在對研究人員沒有吸引力,說不定它可能會(huì)在未來卷土重來。

5.GAN持續(xù)火熱

盡管與去年相比GAN的相對增長略有下降, 但論文數(shù)量實(shí)際上從去年的約70篇漲到了今年的100多篇。Ian Goodfellow做了一個(gè)關(guān)于GAN的特邀報(bào)告,更是受其信徒大力推崇。以至于到了最后一天, 他不得不遮住胸前的徽章, 這樣人們才不會(huì)因?yàn)榭吹剿拿侄?dòng)不已。

第一個(gè)海報(bào)展示環(huán)節(jié)全是關(guān)于GAN的最新進(jìn)展,涵蓋了全新的GAN架構(gòu)、舊架構(gòu)的改進(jìn)、GAN分析、以及從圖像生成到文本生成再到語音合成的GAN應(yīng)用。

衍生出了PATE-GAN, GANSynth, ProbGAN, InstaGAN, RelGAN, MisGAN, SPIGAN, LayoutGAN, KnockoffGAN等等不同的GAN網(wǎng)絡(luò)。總而言之,只要提到GAN我就好像變成了一個(gè)文盲,迷失在林林總總的GAN網(wǎng)絡(luò)中。值得一提的是,Andrew Brock沒有把他的大規(guī)模GAN模型叫做giGANtic讓我好生失望。

GAN的海報(bào)展示環(huán)節(jié)也揭示了在GAN問題上,ICLR社區(qū)是多么的兩極分化。我聽到有些人小聲嘟囔著“我已經(jīng)等不及看到這些GAN的完蛋啦”,“只要有人提到對抗(adversarial)我的腦瓜仁就疼”。當(dāng)然,據(jù)我分析,他們也可能只是嫉妒而已。

6.缺乏生物啟發(fā)式深度學(xué)習(xí)

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

關(guān)于基因組學(xué)的論文為零。也沒有關(guān)于這一專題的研討會(huì)。盡管這一現(xiàn)象令人遺憾, 但也為對生物學(xué)感興趣的深度學(xué)習(xí)研究人員或?qū)ι疃葘W(xué)習(xí)感興趣的生物學(xué)家提供了巨大的機(jī)會(huì)。

趣聞軼事:Retina論文(A Unified Theory of Early Visual Representations from Retina to Cortex through Anatomically Constrained Deep CNNs)的第一作者,Jack Lindsey,還只是Stanford的一名大四學(xué)生。真是英雄出少年??!

7.強(qiáng)化學(xué)習(xí)仍舊是最受歡迎的主題。

會(huì)議上的報(bào)告表明,RL社區(qū)正在從model-free 方法向sample-efficient model-based和meta-learning算法轉(zhuǎn)移。這種轉(zhuǎn)變可能是受TD3和SAC在Mujoco平臺(tái)的連續(xù)控制任務(wù),以及R2D2在Atari離散控制任務(wù)上的極高得分所推動(dòng)的。

基于模型的算法(即從數(shù)據(jù)中學(xué)習(xí)環(huán)境模型,并利用它規(guī)劃或生成更多數(shù)據(jù)的算法)終于能逐漸達(dá)到其對應(yīng)的無模型算法的性能,而且只需要原先十分之一至百分之一的經(jīng)驗(yàn)。

這一優(yōu)勢使他們適合于實(shí)際任務(wù)。盡管學(xué)習(xí)得到的單一模擬器很可能存在缺陷,但可以通過更復(fù)雜的動(dòng)力學(xué)模型,例如集成模擬器,來改善它的缺陷。

另一種將RL應(yīng)用到實(shí)際問題的方法是允許模擬器支持任意復(fù)雜的隨機(jī)化(arbitrarily complex randomizations):在一組不同的模擬環(huán)境上訓(xùn)練的策略可以將現(xiàn)實(shí)世界視為另一個(gè)隨機(jī)化(randomization),并力求成功

元學(xué)習(xí)(Meta-learning)算法,可實(shí)現(xiàn)在多個(gè)任務(wù)之間的快速遷移學(xué)習(xí),也已經(jīng)在樣本效率(smaple-efficiency)和性能方面取得了很大的進(jìn)步(Promp(Rothfuss等人)

這些改進(jìn)使我們更接近“the ImageNet moment of RL”,即我們可以復(fù)用從其他任務(wù)中學(xué)到的控制策略,而不是每個(gè)任務(wù)都從頭開始學(xué)習(xí)。

RNN正在失去光芒 強(qiáng)化學(xué)習(xí)仍最受歡迎

大部分已被接受的論文,連同整個(gè)Structure and Priors in RL研討會(huì),都致力于將一些有關(guān)環(huán)境的知識(shí)整合到學(xué)習(xí)算法中。雖然早期的深度RL算法的主要優(yōu)勢之一是通用性(例如,DQN對所有Atari游戲都使用相同的體系結(jié)構(gòu),而無需知道某個(gè)特定的游戲),但新的算法表明,結(jié)合先驗(yàn)知識(shí)有助于完成更復(fù)雜的任務(wù)。例如,在Transporter Network(Jakab et al.)中,使用的先驗(yàn)知識(shí)進(jìn)行更具信息量的結(jié)構(gòu)性探索。

綜上所述,在過去的5年中,RL社區(qū)開發(fā)了各種有效的工具來解決無模型配置下的RL問題?,F(xiàn)在是時(shí)候提出更具樣本效率(sample-efficient)和可遷移性(transferable)的算法來將RL應(yīng)用于現(xiàn)實(shí)世界中的問題了。

8.大部分論文都會(huì)很快被人遺忘

當(dāng)我問一位著名的研究人員,他對今年被接受的論文有何看法時(shí),他笑著說:“大部分論文都會(huì)在會(huì)議結(jié)束后被遺忘”。在一個(gè)和機(jī)器學(xué)習(xí)一樣快速發(fā)展的領(lǐng)域里,可能每過幾周甚至幾天曾經(jīng)的最好記錄就會(huì)被打破,正因此對于論文還沒發(fā)表就已經(jīng)out了這一現(xiàn)象也就見怪不怪了。例如,根據(jù)Borealis Ai對ICLR 2018的統(tǒng)計(jì),“每八篇里面有七篇論文的結(jié)果,在ICLR會(huì)議開始之前就已經(jīng)被超越了。”

在會(huì)議期間我經(jīng)常聽到的一個(gè)評(píng)論是,接受/拒絕決定的隨機(jī)性。盡管我不會(huì)指明有哪些,但在過去幾年中,確實(shí)有一些如今被談?wù)撟疃?引用最多的論文在最初提交給會(huì)議的時(shí)候被拒了。而許多被接受的論文仍將持續(xù)數(shù)年而不被引用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    48984

    瀏覽量

    248905
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7098

原文標(biāo)題:ICLR 2019八大趨勢:RNN正在失去光芒,強(qiáng)化學(xué)習(xí)仍最受歡迎

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    最受歡迎的單板計(jì)算機(jī) x 最流行的移動(dòng)操作系統(tǒng)

    在本文中,我們將揭秘:應(yīng)在樹莓派上使用Android的4個(gè)理由從哪里獲取樹莓派的Android系統(tǒng)?該選擇哪一個(gè)?未來展望。在樹莓派上使用Android的4個(gè)理由樹莓派無疑是世界上最受歡迎
    的頭像 發(fā)表于 06-18 17:20 ?175次閱讀
    <b class='flag-5'>最受歡迎</b>的單板計(jì)算機(jī) x 最流行的移動(dòng)操作系統(tǒng)

    18個(gè)常用的強(qiáng)化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級(jí)模型的理論技術(shù)與代碼實(shí)現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強(qiáng)化學(xué)習(xí)方法到高級(jí)技術(shù)(如PPO、A3C、PlaNet等)的實(shí)現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強(qiáng)化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?391次閱讀
    18個(gè)常用的<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>算法整理:從基礎(chǔ)方法到高級(jí)模型的理論技術(shù)與代碼實(shí)現(xiàn)

    詳解RAD端到端強(qiáng)化學(xué)習(xí)后訓(xùn)練范式

    受限于算力和數(shù)據(jù),大語言模型預(yù)訓(xùn)練的 scalinglaw 已經(jīng)趨近于極限。DeepSeekR1/OpenAl01通過強(qiáng)化學(xué)習(xí)后訓(xùn)練涌現(xiàn)了強(qiáng)大的推理能力,掀起新一輪技術(shù)革新。
    的頭像 發(fā)表于 02-25 14:06 ?578次閱讀
    詳解RAD端到端<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>后訓(xùn)練范式

    超過150萬個(gè)大模型,DeepSeek全球最受歡迎

    ,中國開源大模型 DeepSeek-R1 在 huggingface 平臺(tái)上超過 150 萬個(gè)模型中脫穎而出,成為該平臺(tái)最受歡迎的開源大模型,點(diǎn)贊數(shù)突破 1 萬。 ? 目前,DeepSeek 已在全球
    的頭像 發(fā)表于 02-25 00:13 ?3019次閱讀
    超過150萬個(gè)大模型,DeepSeek全球<b class='flag-5'>最受歡迎</b>

    比亞迪超越豐田,成為新加坡最受歡迎汽車品牌

    ,占據(jù)了市場14.4%的份額。這一顯著增長的銷量成績,使得比亞迪成功超越豐田,成為新加坡最受歡迎的汽車品牌。 豐田汽車雖然依然強(qiáng)勁,但年銷量僅為5736輛,排在比亞迪之后位列第二。寶馬和梅賽德斯奔馳分別以5042輛和4887輛的銷量緊隨其后,位列第三和第
    的頭像 發(fā)表于 01-24 10:25 ?1735次閱讀

    螞蟻集團(tuán)收購邊塞科技,吳翼出任強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)室首席科學(xué)家

    近日,專注于模型賽道的初創(chuàng)企業(yè)邊塞科技宣布被螞蟻集團(tuán)收購。據(jù)悉,此次交易完成后,邊塞科技將保持獨(dú)立運(yùn)營,而原投資人已全部退出。 與此同時(shí),螞蟻集團(tuán)近期宣布成立強(qiáng)化學(xué)習(xí)實(shí)驗(yàn)室,旨在推動(dòng)大模型強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 11-22 11:14 ?1545次閱讀

    RNN的應(yīng)用領(lǐng)域及未來發(fā)展趨勢

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一種適合于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型。由于其獨(dú)特的循環(huán)結(jié)構(gòu),RNN能夠處理時(shí)間序列數(shù)據(jù),捕捉時(shí)間序列中的動(dòng)態(tài)特征,因此在
    的頭像 發(fā)表于 11-15 10:10 ?1426次閱讀

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 一、基本原理與結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 10:05 ?2191次閱讀

    RNN在圖片描述生成中的應(yīng)用

    隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,圖像描述生成(Image Captioning)作為計(jì)算機(jī)視覺和自然語言處理的交叉領(lǐng)域,受到了越來越多的關(guān)注。圖像描述生成任務(wù)旨在自動(dòng)生成準(zhǔn)確、自然和詳細(xì)的文本描述來描述
    的頭像 發(fā)表于 11-15 09:58 ?945次閱讀

    深度學(xué)習(xí)RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個(gè)時(shí)間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時(shí)間序列數(shù)據(jù)中的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?1317次閱讀

    RNN的基本原理與實(shí)現(xiàn)

    RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),是一種特殊類型的人工神經(jīng)網(wǎng)絡(luò),專門設(shè)計(jì)用于處理序列數(shù)據(jù),如文本、語音、視頻等。以下是對RNN基本原理與實(shí)現(xiàn)的介紹: 一
    的頭像 發(fā)表于 11-15 09:49 ?1422次閱讀

    如何使用RNN進(jìn)行時(shí)間序列預(yù)測

    一種強(qiáng)大的替代方案,能夠學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式,并進(jìn)行準(zhǔn)確的預(yù)測。 RNN的基本原理 RNN是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù)。在RNN中,每個(gè)輸入序列的元素都會(huì)通過一個(gè)或
    的頭像 發(fā)表于 11-15 09:45 ?901次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時(shí)存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?1183次閱讀

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎(jiǎng)勵(lì)。PyTorch 是一個(gè)流行的開源機(jī)器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?1017次閱讀

    谷歌AlphaChip強(qiáng)化學(xué)習(xí)工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計(jì)領(lǐng)域取得了重要突破,詳細(xì)介紹了其用于芯片設(shè)計(jì)布局的強(qiáng)化學(xué)習(xí)方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計(jì)流程,并幫助芯片在性能、功耗和面積方面實(shí)現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?692次閱讀
    主站蜘蛛池模板: www.一区二区| 最新四虎4hu影库地址在线 | 91色蝌蚪| 欧美区在线 | 久久久免费网站 | 狠狠色丁香久久综合五月 | 夜夜夜夜夜夜夜工噜噜噜 | 国产va免费精品高清在线 | 日日夜夜狠狠 | 日韩一级欧美一级一级国产 | 色天使亚洲综合在线观看 | 久久国产美女 | 国产成人精品日本亚洲语言 | 午夜免费视频福利集合100 | 欧美性区 | 色综合综合网 | 6080伦理久久亚洲精品 | 久久国产精品免费网站 | 国产男女免费视频 | 日本高清不卡视频 | 国产一卡2卡3卡四卡精品网站 | 欧美午夜精品久久久久久黑人 | 天天干天天射天天插 | 国产一区二区三区波多野吉衣 | 精品国产亚洲人成在线 | 最刺激黄a大片免费网站 | 天堂在线资源最新版 | 四虎在线观看一区二区 | 2019偷偷狠狠的日日 | 影院午夜| 日本高清免费aaaaa大片视频 | 天天操天天谢 | 色老头久久久久 | 日本xxxx色视频在线观看免费 | 国产三片高清在线观看 | 成人欧美一区二区三区视频 | 四虎影裤| 天天综合天天干 | 三级视频国产 | 爱综合网| 日韩精品另类天天更新影院 |