在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

汽車(chē)玩家 ? 來(lái)源: AI科技大本營(yíng) ? 作者: AI科技大本營(yíng) ? 2020-05-04 09:00 ? 次閱讀

自 2012 年以來(lái),深度學(xué)習(xí)的發(fā)展有目共睹,今年 3 月,為此做出巨大貢獻(xiàn)的 Yoshua Bengio、Yann Lecun和Geofrey Hinton 一同獲得了圖靈獎(jiǎng)。但現(xiàn)在,深度學(xué)習(xí)需要被進(jìn)一步挖掘。

在最近一次采訪中,圖靈獎(jiǎng)得主Bengio再次再次警示了可解釋因果關(guān)系對(duì)深度學(xué)習(xí)發(fā)展的重要性。

在他看來(lái),除非深度學(xué)習(xí)能夠超越模式識(shí)別并了解因果關(guān)系的更多信息,否則它將無(wú)法實(shí)現(xiàn)其全部潛力,也不會(huì)帶來(lái)真正的AI革命。換句話說(shuō),深度學(xué)習(xí)需要開(kāi)始知道事情發(fā)生的因果關(guān)系,這將使現(xiàn)有的 AI 系統(tǒng)更加智能,更加高效。

不過(guò),對(duì)于深度學(xué)習(xí)未來(lái)發(fā)展的具體思路,AI 大佬們也有不同意見(jiàn),在前幾日,紐約大學(xué)教授 Gary Marcus 和 Bengio 就此來(lái)了一場(chǎng)隔空“互懟”。

不管怎樣,Bengio 在研究深度學(xué)習(xí)可解釋性方面已經(jīng)出發(fā)了。今年年初,他其他研究者合作發(fā)表了《通過(guò)元遷移目標(biāo)來(lái)學(xué)習(xí)理解因果關(guān)系》一文,提出了一種基于學(xué)習(xí)器適應(yīng)稀疏分布變化速度的元學(xué)習(xí)因果結(jié)構(gòu),還生成了因果關(guān)系的綜合數(shù)據(jù)集。

以下為這篇論文的主要內(nèi)容要點(diǎn),AI科技大本營(yíng)(ID:rgznai100)編譯:

本文提出了一種基于學(xué)習(xí)器適應(yīng)稀疏分布變化速度的元學(xué)習(xí)因果結(jié)構(gòu),這些變化因素如干預(yù),智能體的行為和其他不穩(wěn)定因素。本文表明,在這種假設(shè)下,正確的因果結(jié)構(gòu)選擇會(huì)使學(xué)習(xí)器更快適應(yīng)修改后的分布,因?yàn)楫?dāng)對(duì)所學(xué)知識(shí)進(jìn)行適當(dāng)模塊化時(shí),分布變化僅會(huì)集中在一種或幾種機(jī)制中。這導(dǎo)致為了適應(yīng)這種變化,需要重新學(xué)習(xí)梯度和一些自由度較低的參數(shù)。并將適應(yīng)修改后分布的速度作為元學(xué)習(xí)目標(biāo)的激勵(lì)項(xiàng)。

本文闡述了如何將其用于確定兩個(gè)觀察到的變量之間的因果關(guān)系。分布的變化不需要對(duì)應(yīng)于某種標(biāo)準(zhǔn)的干預(yù)(固定變量),并且學(xué)習(xí)器不會(huì)了解這些干預(yù)相關(guān)的知識(shí)。本文證明了因果結(jié)構(gòu)可以通過(guò)連續(xù)變量和端到端的學(xué)習(xí)進(jìn)行參數(shù)化。然后,本文探討了如何將這些想法用于學(xué)習(xí)一種編碼器,該編碼器能將初級(jí)觀察變量映射到未觀察到的因果變量,從而導(dǎo)致更快的分布適應(yīng)。它學(xué)習(xí)的是一種表示空間,在這種表示空間中,可以滿足獨(dú)立性以及微小和稀疏變化的假設(shè)。

引言

當(dāng)目前的機(jī)器學(xué)習(xí)方法需要泛化到訓(xùn)練分布之外的場(chǎng)景時(shí),模型的能力似乎很薄弱,而這通常是非常需要的。在與訓(xùn)練數(shù)據(jù)相同的分布相似的測(cè)試集上獲得良好的泛化性能是不夠的,我們還希望在一種數(shù)據(jù)集中學(xué)到的知識(shí)能夠很好的泛化到其他相關(guān)的分布中。這些分布可能涉及模型之前所見(jiàn)的內(nèi)容,而它的一些變化則是由智能體引起的。

更籠統(tǒng)地說(shuō),我們希望以前學(xué)到的知識(shí)形成一個(gè)豐富的基礎(chǔ),從中可以非常迅速地適應(yīng)新的但相關(guān)的分布,即獲得良好的遷移。可能模型必須學(xué)習(xí)一些新內(nèi)容,但是由于它已經(jīng)掌握了大多數(shù)其他相關(guān)內(nèi)容(以及它們的組成方式),因此在遷移目標(biāo)分布上,可以非常快速的完成學(xué)習(xí)。

沒(méi)有任何假設(shè),就不可能成功遷移到一個(gè)無(wú)關(guān)的分布上。在本文中,我們關(guān)注于以下假設(shè):當(dāng)以適當(dāng)?shù)哪K化方式表示知識(shí)時(shí),改變是稀疏的,即只有一個(gè)或幾個(gè)模塊更改了。當(dāng)分布變化是由于一種或多種因素的作用引起的,這尤其相關(guān),例如因果關(guān)系文獻(xiàn)中討論的干預(yù)措施,其中單個(gè)因果變量被限制在特定值。

總的來(lái)說(shuō),模型很難一次影響許多潛在的因果變量,盡管本文并不是關(guān)于模型學(xué)習(xí),但這是我們建議在此處利用的一個(gè)特性,用于幫助發(fā)現(xiàn)這些變量它們之間的因果關(guān)系。

為了激發(fā)推斷因果結(jié)構(gòu)的需求,需要考慮可以實(shí)際執(zhí)行或可以想象的干預(yù)。可以想象一下,由于一項(xiàng)干預(yù)措施,可能會(huì)改變相關(guān)變量的聯(lián)合分布,即以前從未觀察到過(guò)。這超出了遷移學(xué)習(xí)的范圍,因此需要因果學(xué)習(xí)和因果推理。

為此,僅學(xué)習(xí)觀測(cè)變量的聯(lián)合分布是不夠的。人們還應(yīng)該對(duì)潛在的高級(jí)變量及其因果關(guān)系有足夠的了解,以能夠正確推斷干預(yù)的效果。例如,A =下雨,它會(huì)導(dǎo)致B =打開(kāi)雨傘(反之亦然)。改變下雨的邊緣概率(例如,因?yàn)樘鞖庾兓┎粫?huì)改變A和B的之間的關(guān)系(即P(B | A)),但會(huì)對(duì)邊緣概率P(B)卻產(chǎn)生了影響。相反,智能體對(duì)B(打開(kāi)雨傘)的干預(yù)不會(huì)對(duì)A(下雨)的邊緣分布產(chǎn)生影響。通常僅從(A,B)訓(xùn)練對(duì)中看不到這種不對(duì)稱性,直到發(fā)生分布變化(例如由于干預(yù)引起的)。

這是本文的動(dòng)機(jī),在本文中,人們可以從不一定是已知的干預(yù)措施分布中學(xué)習(xí),而不僅僅是獲取一個(gè)聯(lián)合分布,還可以發(fā)現(xiàn)一些潛在的因果結(jié)構(gòu)。機(jī)器學(xué)習(xí)方法通常會(huì)利用某種形式的關(guān)于數(shù)據(jù)分布的假設(shè)。在本文中,我們不僅要考慮數(shù)據(jù)分布的假設(shè),還要考慮其變化方式(例如,從訓(xùn)練分布轉(zhuǎn)到遷移分布時(shí),可能是由于某些智能體的行為造成的)。

我們建議基于這樣的假設(shè):當(dāng)表示有關(guān)分布的知識(shí)時(shí),其中的變化很小。之所以出現(xiàn)這種情況,是因?yàn)橐粋€(gè)或幾個(gè)基本事實(shí)機(jī)制的假設(shè)(但很難直接驗(yàn)證),會(huì)因?yàn)槟撤N干預(yù)形式而改變。

我們?nèi)绾卫眠@個(gè)假設(shè)?如果我們擁有正確的知識(shí)表示,那么從一個(gè)訓(xùn)練好的模型開(kāi)始,我們應(yīng)該能快速適應(yīng)遷移的分布。之所以出現(xiàn)這種情況,是因?yàn)槲覀兗僭O(shè)數(shù)據(jù)的生成過(guò)程是獨(dú)立獲得的,而且從訓(xùn)練分布到轉(zhuǎn)移分布,幾乎不需要改變真正的機(jī)制和參數(shù)。因此,捕獲相應(yīng)知識(shí)分解的模型僅需要進(jìn)行一些更新和一些樣例,即可適應(yīng)遷移分布。

因此,基于正確知識(shí)表示空間的微小變化的假設(shè),我們可以定義一個(gè)衡量適應(yīng)速度的元學(xué)習(xí)目標(biāo),以便優(yōu)化知識(shí)的表示,分解和結(jié)構(gòu)化方式。這是本文提出的核心思想。

請(qǐng)注意,當(dāng)存在更多的非平穩(wěn)性(即分布變化很多)時(shí),可以獲得更強(qiáng)的信號(hào),就像在元學(xué)習(xí)中一樣,通過(guò)更多的元示例獲得更好的結(jié)果。通過(guò)這種方式,我們可以將通常被認(rèn)為是機(jī)器學(xué)習(xí)中令人討厭的東西(由于非平穩(wěn)性,不受控制的干預(yù)等導(dǎo)致的分布變化)轉(zhuǎn)化為訓(xùn)練信號(hào),從而找到一種將知識(shí)分解為要素和知識(shí)的好方法。

在本文中,我們將通過(guò)對(duì)合成生成的數(shù)據(jù)進(jìn)行特定的實(shí)驗(yàn)來(lái)探索上述想法,以便對(duì)其進(jìn)行驗(yàn)證并證明存在利用它們的簡(jiǎn)單算法。但是,對(duì)我們來(lái)說(shuō)很明顯,將需要更多的工作來(lái)評(píng)估提出方法的多樣性。設(shè)置以及具有不同的具體參數(shù)設(shè)置,訓(xùn)練目標(biāo),環(huán)境等。

我們從最簡(jiǎn)單的設(shè)置開(kāi)始,并評(píng)估上述方法是否可用于了解因果關(guān)系的方向。然后,我們研究獲得訓(xùn)練信號(hào)的關(guān)鍵問(wèn)題,該訓(xùn)練信號(hào)關(guān)于如何將原始觀測(cè)數(shù)據(jù)轉(zhuǎn)換為表示空間,在該表示空間中,潛在變量可以通過(guò)具有稀疏分布變化的稀疏因果圖來(lái)建模,并顯示正確的編碼器確實(shí)可以更好地實(shí)現(xiàn)我們期望的元學(xué)習(xí)目標(biāo)的價(jià)值。

何為因?何為果?

作者在本節(jié)中考慮確定變量A是否導(dǎo)致變量B或反之的問(wèn)題。學(xué)習(xí)器(模型)會(huì)從一對(duì)相關(guān)分布中觀察訓(xùn)練樣本(a,b),按照慣例,我們將其稱為訓(xùn)練分布和遷移分布。請(qǐng)注意,僅基于來(lái)自單個(gè)(訓(xùn)練)分布的樣本,通常A→B模型(A導(dǎo)致B)和B→A模型(反之亦然,請(qǐng)參見(jiàn)下面的公式(1))另請(qǐng)參見(jiàn)附錄A中的理論論證和模擬結(jié)果。

為了突出提出的元學(xué)習(xí)目標(biāo)的功能,我們考慮了很多可用于訓(xùn)練分布但不能用于遷移分布的樣例。實(shí)際上,正如我們將在下面討論的那樣,如果我們可以訪問(wèn)更多短時(shí)遷移的樣例,則推斷出正確因果方向的訓(xùn)練信號(hào)會(huì)更強(qiáng)烈。

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

學(xué)習(xí)帶兩個(gè)離散變量的因果關(guān)系圖

我們需要比較兩個(gè)假設(shè)(A→B與B→A)的性能,即兩個(gè)模型在訓(xùn)練分布上進(jìn)行訓(xùn)練后在遷移分布上的適應(yīng)速度。我們將在此參數(shù)上假設(shè)簡(jiǎn)單的隨機(jī)梯度下降,但是當(dāng)然可以使用其他過(guò)程。在不失一般性的前提下,令A(yù)→B為正確的因果模型。為了使條件更強(qiáng),可以考慮兩個(gè)分布之間的變化等于原因A的真實(shí)P(A)值的隨機(jī)變化(因?yàn)檫@會(huì)對(duì)效果B產(chǎn)生影響,并揭示因果關(guān)系方向)。我們不假定學(xué)習(xí)器(模型)知道進(jìn)行了何種干預(yù),這與更常見(jiàn)的因果發(fā)現(xiàn)和受控實(shí)驗(yàn)方法不同。我們僅假設(shè)發(fā)生了某些變化,然后嘗試?yán)盟鼇?lái)揭示結(jié)構(gòu)性的因果信息。

適應(yīng)遷移分布的實(shí)驗(yàn)

本文目前進(jìn)行的實(shí)驗(yàn)是將正確因果模型的學(xué)習(xí)曲線與遷移模型上的因果模型的學(xué)習(xí)曲線進(jìn)行了比較。對(duì)于來(lái)自不同但相關(guān)的遷移分布的數(shù)據(jù),僅需幾個(gè)梯度步驟,我們的元學(xué)習(xí)算法就可以獲取至關(guān)重要的一些信息(信號(hào))。為了展示這種適應(yīng)的效果,僅使用遷移分布中的少量數(shù)據(jù),本文對(duì)離散隨機(jī)變量的模型進(jìn)行了實(shí)驗(yàn)。如上圖1。

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

一個(gè)簡(jiǎn)單的參數(shù)計(jì)數(shù)能有助于我們理解圖1中的觀察結(jié)果。首先,考慮在適應(yīng)遷移分布的階段,指定不同模塊參數(shù)的預(yù)期梯度,并對(duì)應(yīng)于學(xué)習(xí)的元示例。作者提出了三個(gè)見(jiàn)解

見(jiàn)解1對(duì)于在訓(xùn)練階段已正確學(xué)習(xí)的模塊參數(shù),遷移分布相對(duì)于模塊參數(shù)的預(yù)期梯度為零,并且具有正確的因果關(guān)系集合,對(duì)應(yīng)于正確的因果圖,如果(c)相應(yīng)的正確條件分布沒(méi)有從訓(xùn)練分布變?yōu)檫w移分布。

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

見(jiàn)解2上述公式(2)中遷移數(shù)據(jù)的負(fù)對(duì)數(shù)似然率的梯度。其結(jié)構(gòu)參數(shù)由下式給出

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

其中D2是遷移數(shù)據(jù),而

是假設(shè)A->B的后驗(yàn)概率。此外,這可以等效地寫(xiě)為

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

其中

是遷移數(shù)據(jù)D2上兩個(gè)假設(shè)對(duì)數(shù)似然之間的差異。

見(jiàn)解3

隨機(jī)梯度下降(適當(dāng)降低學(xué)習(xí)率)趨向于

可解釋因果關(guān)系對(duì)深度學(xué)習(xí)的影響

作者通過(guò)附錄及實(shí)驗(yàn)證實(shí)了上述三個(gè)見(jiàn)解,具體可以參見(jiàn)論文。

總結(jié)展望

作者使用非常簡(jiǎn)單的雙變量設(shè)置,確定了學(xué)習(xí)器可以用適應(yīng)觀察數(shù)據(jù)分布稀疏變化的速率來(lái)選擇或優(yōu)化因果結(jié)構(gòu)并解耦因果變量。基于這樣的假設(shè):在具有正確因果結(jié)構(gòu)的情況下,這些分布變化是局部且稀疏的。本文通過(guò)理論結(jié)果和實(shí)驗(yàn)驗(yàn)證了這些想法。

這項(xiàng)工作只是基于修改分布速率優(yōu)化因果結(jié)構(gòu)的第一步。在實(shí)驗(yàn)方面,除了本文研究的設(shè)定外,還應(yīng)考慮許多其他條件設(shè)定,包括各種參數(shù)設(shè)置,更豐富和更大的因果圖,各種優(yōu)化程序等。此外,由于我們?cè)谶@一點(diǎn)上僅使用了具有單一自由度的最簡(jiǎn)單的編碼器進(jìn)行了實(shí)驗(yàn),在探索如何學(xué)習(xí)更優(yōu)的學(xué)習(xí)表達(dá)時(shí),還需要更多的工作。擴(kuò)充這些想法,便能應(yīng)用于提升學(xué)習(xí)器處理非平穩(wěn)性的分布,從而提高學(xué)習(xí)器的魯棒性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    32013

    瀏覽量

    270878
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5523

    瀏覽量

    121702
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?191次閱讀

    小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

    科學(xué)AI需要可解釋性人工智能的崛起,尤其是深度學(xué)習(xí)的發(fā)展,在眾多領(lǐng)域帶來(lái)了令人矚目的進(jìn)步。然而,伴隨這些進(jìn)步而來(lái)的是一個(gè)關(guān)鍵問(wèn)題——“黑箱”問(wèn)題。許多人工智能模型,特別是復(fù)雜的模型,如神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-10 12:12 ?156次閱讀
    小白學(xué)<b class='flag-5'>解釋</b>性AI:從機(jī)器<b class='flag-5'>學(xué)習(xí)</b>到大模型

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專(zhuān)門(mén)為深度學(xué)習(xí)等機(jī)器學(xué)習(xí)任務(wù)設(shè)計(jì)的處理器,其與機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?683次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專(zhuān)門(mén)為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1088次閱讀

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中數(shù)據(jù)驅(qū)動(dòng)故障檢測(cè)模型的性能和可解釋性。引入了一種混合因果發(fā)現(xiàn)算法來(lái)發(fā)現(xiàn)監(jiān)測(cè)變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接
    的頭像 發(fā)表于 11-12 09:52 ?440次閱讀
    一種基于<b class='flag-5'>因果</b>路徑的層次圖卷積注意力網(wǎng)絡(luò)

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?568次閱讀

    AI大模型與深度學(xué)習(xí)關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度
    的頭像 發(fā)表于 10-23 15:25 ?1638次閱讀

    當(dāng)系統(tǒng)鬧脾氣:用「因果推斷」哄穩(wěn)技術(shù)的心

    背景 系統(tǒng)穩(wěn)定性問(wèn)題往往涉及復(fù)雜的因果關(guān)系。例如,一個(gè)系統(tǒng)的崩潰可能由多個(gè)因素引起,包括硬件故障、軟件bug、業(yè)務(wù)配置、外部攻擊或其他操作不當(dāng)?shù)取@斫膺@些因素之間的因果關(guān)系對(duì)于系統(tǒng)穩(wěn)定性建設(shè)至關(guān)重要
    的頭像 發(fā)表于 08-14 10:42 ?348次閱讀
    當(dāng)系統(tǒng)鬧脾氣:用「<b class='flag-5'>因果</b>推斷」哄穩(wěn)技術(shù)的心

    pytorch和python的關(guān)系是什么

    ,PyTorch已經(jīng)成為了一個(gè)非常受歡迎的框架。本文將介紹PyTorch和Python之間的關(guān)系,以及它們?cè)?b class='flag-5'>深度學(xué)習(xí)領(lǐng)域的應(yīng)用。 Python簡(jiǎn)介 Python是一種高級(jí)、解釋型、通用
    的頭像 發(fā)表于 08-01 15:27 ?2551次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類(lèi)方法

    時(shí)間序列分類(lèi)(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動(dòng)識(shí)別、系統(tǒng)監(jiān)測(cè)、金融預(yù)測(cè)、醫(yī)療診斷等多個(gè)領(lǐng)域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?1270次閱讀

    深度學(xué)習(xí)在視覺(jué)檢測(cè)中的應(yīng)用

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要分支,其核心在于通過(guò)構(gòu)建具有多層次的神經(jīng)網(wǎng)絡(luò)模型,使計(jì)算機(jī)能夠從大量數(shù)據(jù)中自動(dòng)學(xué)習(xí)并提取特征,進(jìn)而實(shí)現(xiàn)對(duì)復(fù)雜任務(wù)的處理和理解。這種
    的頭像 發(fā)表于 07-08 10:27 ?907次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語(yǔ)言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?1114次閱讀

    深度解析深度學(xué)習(xí)下的語(yǔ)義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺(jué)的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測(cè)、識(shí)別和分類(lèi)等領(lǐng)域。近年來(lái),研究人員開(kāi)始在視覺(jué)SLAM算法中引入深度學(xué)習(xí)技術(shù),使得
    發(fā)表于 04-23 17:18 ?1443次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語(yǔ)義SLAM

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理到自動(dòng)駕駛汽車(chē)等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?722次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    使用MDA8108HD電機(jī)驅(qū)動(dòng)分析儀進(jìn)行復(fù)雜的電機(jī)驅(qū)動(dòng)和交互控制測(cè)試

    電機(jī)驅(qū)動(dòng)控制系統(tǒng)的調(diào)試往往需要查看動(dòng)態(tài)事件中同時(shí)發(fā)生的控制信號(hào)和功率波形,由此去理解之間因果關(guān)系,可視化動(dòng)態(tài)功率行為隨時(shí)間的變化,以及和控制信號(hào)的關(guān)聯(lián)。
    的頭像 發(fā)表于 03-01 16:47 ?1946次閱讀
    使用MDA8108HD電機(jī)驅(qū)動(dòng)分析儀進(jìn)行復(fù)雜的電機(jī)驅(qū)動(dòng)和交互控制測(cè)試
    主站蜘蛛池模板: 国产69精品久久久久9999 | 天天干天天插天天操 | 日本经典在线三级视频 | 一级美女视频 | 婷婷激情五月综合 | 天天夜干 | 在线看你懂得 | 丁香婷婷六月天 | 中文字幕一区视频 | 国产成人亚洲影视在线 | 49pao强力免费打造在线高清 | 天天做天天添婷婷我也去 | 女色窝人体色77777 | 美女视频黄a视频免费全过程 | 国产狂喷冒白浆免费视频 | 老色皮 | 2021国产精品成人免费视频 | 国产一级真人毛爱做毛片 | 天天干天天上 | 亚洲伊人久久综合影院2021 | 1024手机看片你懂得的 日韩欧美 | 哟交小u女国产精品视频 | 国产妇女在线 | 特黄特黄一级高清免费大片 | ak福利午夜在线观看 | 日本免费人成在线网站 | 888米奇在线视频四色 | 插久久| 天堂伊人| 天天伊人| 在线看片你懂得 | 中国一级特黄特色真人毛片 | 亚洲成在人线影视天堂网 | 天天干免费视频 | 一级aaaaaa片毛片在线播放 | 国产色综合天天综合网 | 欧美成人 色 图 | 亚洲黄色影片 | 黄色永久网站 | 亚洲欧美v视色一区二区 | 狂野欧美性猛交xxxx免费 |