91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法流程

中服云工業(yè)新風(fēng)向 ? 來源:工業(yè)新風(fēng)向 ? 作者:工業(yè)新風(fēng)向 ? 2022-04-26 15:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)這幾年特別火,就像5年前的大數(shù)據(jù)一樣,不過深度學(xué)習(xí)其主要還是屬于機(jī)器學(xué)習(xí)的范疇領(lǐng)域內(nèi),所以這篇文章里面我們來嘮一嘮機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的算法流程區(qū)別。

機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法流程

終于考上人工智能的研究僧啦,不知道機(jī)器學(xué)習(xí)和深度學(xué)習(xí)有啥區(qū)別,感覺一切都是深度學(xué)習(xí)。

挖槽,聽說學(xué)長已經(jīng)調(diào)了10個(gè)月的參數(shù)準(zhǔn)備發(fā)有2000億參數(shù)的T9開天霹靂模型,我要調(diào)參發(fā)T10準(zhǔn)備拿個(gè)Best Paper。

現(xiàn)在搞傳統(tǒng)機(jī)器學(xué)習(xí)相關(guān)的研究論文確實(shí)占比不太高,有的人吐槽深度學(xué)習(xí)就是個(gè)系統(tǒng)工程而已,沒有數(shù)學(xué)含金量。

但是無可否認(rèn)的是深度學(xué)習(xí)實(shí)在太好用啦!極大地簡化了傳統(tǒng)機(jī)器學(xué)習(xí)的整體算法分析和學(xué)習(xí)流程,更重要的是在一些通用的領(lǐng)域任務(wù)刷新了傳統(tǒng)機(jī)器學(xué)習(xí)算法達(dá)不到的精度和準(zhǔn)確率。

深度學(xué)習(xí)這幾年特別火,就像5年前的大數(shù)據(jù)一樣,不過深度學(xué)習(xí)其主要還是屬于機(jī)器學(xué)習(xí)的范疇領(lǐng)域內(nèi),所以這篇文章里面我們來嘮一嘮機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的算法流程區(qū)別。

67db2eb8-c52c-11ec-bce3-dac502259ad0.png

—01—機(jī)器學(xué)習(xí)的算法流程

實(shí)際上機(jī)器學(xué)習(xí)研究的就是數(shù)據(jù)科學(xué)(聽上去有點(diǎn)無聊),下面是機(jī)器學(xué)習(xí)算法的主要流程:

(1)數(shù)據(jù)集準(zhǔn)備

(2)探索性地對數(shù)據(jù)進(jìn)行分析

(3)數(shù)據(jù)預(yù)處理

(4)數(shù)據(jù)分割

(5)機(jī)器學(xué)習(xí)算法建模

(6)選擇機(jī)器學(xué)習(xí)任務(wù)

(7)最后就是評價(jià)機(jī)器學(xué)習(xí)算法對實(shí)際數(shù)據(jù)的應(yīng)用情況如何

680e095a-c52c-11ec-bce3-dac502259ad0.png

1.1數(shù)據(jù)集

首先我們要研究的是數(shù)據(jù)的問題,數(shù)據(jù)集是構(gòu)建機(jī)器學(xué)習(xí)模型流程的起點(diǎn)。簡單來說,數(shù)據(jù)集本質(zhì)上是一個(gè)M×N矩陣,其中M代表列(特征),N代表行(樣本)。

列可以分解為X和Y,X是可以指特征、獨(dú)立變量或者是輸入變量。Y也是可以指類別標(biāo)簽、因變量和輸出變量。

68447968-c52c-11ec-bce3-dac502259ad0.png

1.2數(shù)據(jù)分析進(jìn)行探索性數(shù)據(jù)分析(Exploratorydata analysis, EDA)是為了獲得對數(shù)據(jù)的初步了解。EDA主要的工作是:對數(shù)據(jù)進(jìn)行清洗,對數(shù)據(jù)進(jìn)行描述(描述統(tǒng)計(jì)量,圖表),查看數(shù)據(jù)的分布,比較數(shù)據(jù)之間的關(guān)系,培養(yǎng)對數(shù)據(jù)的直覺,對數(shù)據(jù)進(jìn)行總結(jié)等。 探索性數(shù)據(jù)分析方法簡單來說就是去了解數(shù)據(jù),分析數(shù)據(jù),搞清楚數(shù)據(jù)的分布。主要注重?cái)?shù)據(jù)的真實(shí)分布,強(qiáng)調(diào)數(shù)據(jù)的可視化,使分析者能一目了然看出數(shù)據(jù)中隱含的規(guī)律,從而得到啟發(fā),以此幫助分析者找到適合數(shù)據(jù)的模型。 在一個(gè)典型的機(jī)器學(xué)習(xí)算法流程和數(shù)據(jù)科學(xué)項(xiàng)目里面,我做的第一件事就是通過 "盯住數(shù)據(jù)",以便更好地了解數(shù)據(jù)。個(gè)人通常使用的三大EDA方法包括:描述性統(tǒng)計(jì)平均數(shù)、中位數(shù)、模式、標(biāo)準(zhǔn)差。

688b9582-c52c-11ec-bce3-dac502259ad0.png

數(shù)據(jù)可視化

熱力圖(辨別特征內(nèi)部相關(guān)性)、箱形圖(可視化群體差異)、散點(diǎn)圖(可視化特征之間的相關(guān)性)、主成分分析(可視化數(shù)據(jù)集中呈現(xiàn)的聚類分布)等。

68c75d10-c52c-11ec-bce3-dac502259ad0.png

數(shù)據(jù)整形

對數(shù)據(jù)進(jìn)行透視、分組、過濾等。

68ff0576-c52c-11ec-bce3-dac502259ad0.png

1.3數(shù)據(jù)預(yù)處理

數(shù)據(jù)預(yù)處理,其實(shí)就是對數(shù)據(jù)進(jìn)行清理、數(shù)據(jù)整理或普通數(shù)據(jù)處理。指對數(shù)據(jù)進(jìn)行各種檢查和校正過程,以糾正缺失值、拼寫錯誤、使數(shù)值正常化/標(biāo)準(zhǔn)化以使其具有可比性、轉(zhuǎn)換數(shù)據(jù)(如對數(shù)轉(zhuǎn)換)等問題。

例如對圖像進(jìn)行resize成統(tǒng)一的大小或者分辨率。

數(shù)據(jù)的質(zhì)量將對機(jī)器學(xué)習(xí)算法模型的質(zhì)量好壞產(chǎn)生很大的影響。因此,為了達(dá)到最好的機(jī)器學(xué)習(xí)模型質(zhì)量,傳統(tǒng)的機(jī)器學(xué)習(xí)算法流程中,其實(shí)很大一部分工作就是在對數(shù)據(jù)進(jìn)行分析和處理。

一般來說,數(shù)據(jù)預(yù)處理可以輕松地占到機(jī)器學(xué)習(xí)項(xiàng)目流程中80%的時(shí)間,而實(shí)際的模型建立階段和后續(xù)的模型分析大概僅占到剩余的20%。

1.4數(shù)據(jù)分割訓(xùn)練集 & 測試集

在機(jī)器學(xué)習(xí)模型的開發(fā)流程中,希望訓(xùn)練好的模型能在新的、未見過的數(shù)據(jù)上表現(xiàn)良好。為了模擬新的、未見過的數(shù)據(jù),對可用數(shù)據(jù)進(jìn)行數(shù)據(jù)分割,從而將已經(jīng)處理好的數(shù)據(jù)集分割成2部分:訓(xùn)練集合測試集。

第一部分是較大的數(shù)據(jù)子集,用作訓(xùn)練集(如占原始數(shù)據(jù)的80%);第二部分通常是較小的子集,用作測試集(其余20%的數(shù)據(jù))。

接下來,利用訓(xùn)練集建立預(yù)測模型,然后將這種訓(xùn)練好的模型應(yīng)用于測試集(即作為新的、未見過的數(shù)據(jù))上進(jìn)行預(yù)測。根據(jù)模型在測試集上的表現(xiàn)來選擇最佳模型,為了獲得最佳模型,還可以進(jìn)行超參數(shù)優(yōu)化。

695592b0-c52c-11ec-bce3-dac502259ad0.png

訓(xùn)練集 & 驗(yàn)證集 & 測試集

另一種常見的數(shù)據(jù)分割方法是將數(shù)據(jù)分割成3部分:

(1)訓(xùn)練集

(2)驗(yàn)證集

(3) 測試集

訓(xùn)練集用于建立預(yù)測模型,同時(shí)對驗(yàn)證集進(jìn)行評估,據(jù)此進(jìn)行預(yù)測,可以進(jìn)行模型調(diào)優(yōu)(如超參數(shù)優(yōu)化),并根據(jù)驗(yàn)證集的結(jié)果選擇性能最好的模型。

驗(yàn)證集的操作方式跟訓(xùn)練集類似。不過值得注意的是,測試集不參與機(jī)器學(xué)習(xí)模型的建立和準(zhǔn)備,是機(jī)器學(xué)習(xí)模型訓(xùn)練過程中單獨(dú)留出的樣本集,用于調(diào)整模型的超參數(shù)和對模型的能力進(jìn)行初步評估。通常邊訓(xùn)練邊驗(yàn)證,這里的驗(yàn)證就是用驗(yàn)證集來檢驗(yàn)?zāi)P偷某醪叫Ч?/p>

6984afd2-c52c-11ec-bce3-dac502259ad0.png

交叉驗(yàn)證

實(shí)際上數(shù)據(jù)是機(jī)器學(xué)習(xí)流程中最寶貴的,為了更加經(jīng)濟(jì)地利用現(xiàn)有數(shù)據(jù),通常使用N倍交叉驗(yàn)證,將數(shù)據(jù)集分割成N個(gè)。在這樣的N倍數(shù)據(jù)集中,其中一個(gè)被留作測試數(shù)據(jù),而其余的則被用作建立模型的訓(xùn)練數(shù)據(jù)。通過反復(fù)交叉迭代的方式來對機(jī)器學(xué)習(xí)流程進(jìn)行驗(yàn)證。

這種交叉驗(yàn)證的方法在機(jī)器學(xué)習(xí)流程中被廣泛的使用,但是深度學(xué)習(xí)中使用得比較少哈。

69a704d8-c52c-11ec-bce3-dac502259ad0.png

1.5機(jī)器學(xué)習(xí)算法建模下面是最有趣的部分啦,數(shù)據(jù)篩選和處理過程其實(shí)都是很枯燥乏味的,現(xiàn)在可以使用精心準(zhǔn)備的數(shù)據(jù)來建模。根據(jù)taget變量(通常稱為Y變量)的數(shù)據(jù)類型,可以建立一個(gè)分類或回歸模型。機(jī)器學(xué)習(xí)算法

機(jī)器學(xué)習(xí)算法可以大致分為以下三種類型之一:

(1)監(jiān)督學(xué)習(xí)

是一種機(jī)器學(xué)習(xí)任務(wù),建立輸入X和輸出Y變量之間的數(shù)學(xué)(映射)關(guān)系。這樣的(X、Y)對構(gòu)成了用于建立模型的標(biāo)簽數(shù)據(jù),以便學(xué)習(xí)如何從輸入中預(yù)測輸出。

(2)無監(jiān)督學(xué)習(xí)

是一種只利用輸入X變量的機(jī)器學(xué)習(xí)任務(wù)。X變量是未標(biāo)記的數(shù)據(jù),學(xué)習(xí)算法在建模時(shí)使用的是數(shù)據(jù)的固有結(jié)構(gòu)。

(3)強(qiáng)化學(xué)習(xí)

是一種決定下一步行動方案的機(jī)器學(xué)習(xí)任務(wù),它通過試錯學(xué)習(xí)(trial and error learning)來實(shí)現(xiàn)這一目標(biāo),努力使reward回報(bào)最大化。

參數(shù)調(diào)優(yōu)

傳說中的調(diào)參俠主要干的就是這個(gè)工作啦。超參數(shù)本質(zhì)上是機(jī)器學(xué)習(xí)算法的參數(shù),直接影響學(xué)習(xí)過程和預(yù)測性能。由于沒有萬能的超參數(shù)設(shè)置,可以普遍適用于所有數(shù)據(jù)集,因此需要進(jìn)行超參數(shù)優(yōu)化。

以隨機(jī)森林為例。在使用randomForest時(shí),通常會對兩個(gè)常見的超參數(shù)進(jìn)行優(yōu)化,其中包括mtry和ntree參數(shù)。mtry(maxfeatures)代表在每次分裂時(shí)作為候選變量隨機(jī)采樣的變量數(shù)量,而ntree(nestimators)代表要生長的樹的數(shù)量。

另一種在10年前仍然非常主流的機(jī)器學(xué)習(xí)算法是支持向量機(jī)SVM。需要優(yōu)化的超參數(shù)是徑向基函數(shù)(RBF)內(nèi)核的C參數(shù)和gamma參數(shù)。C參數(shù)是一個(gè)限制過擬合的懲罰項(xiàng),而gamma參數(shù)則控制RBF核的寬度。

調(diào)優(yōu)通常是為了得出超參數(shù)的較佳值集,很多時(shí)候不要去追求找到超參一個(gè)最優(yōu)值,其實(shí)調(diào)參俠只是調(diào)侃調(diào)侃,真正需要理解掌握算法原理,找到適合數(shù)據(jù)和模型的參數(shù)就可以啦。

特征選擇

特征選擇從字面上看就是從最初的大量特征中選擇一個(gè)特征子集的過程。除了實(shí)現(xiàn)高精度的模型外,機(jī)器學(xué)習(xí)模型構(gòu)建最重要的一個(gè)方面是獲得可操作的見解,為了實(shí)現(xiàn)這一目標(biāo),能夠從大量的特征中選擇出重要的特征子集非常重要。

特征選擇的任務(wù)本身就可以構(gòu)成一個(gè)全新的研究領(lǐng)域,在這個(gè)領(lǐng)域中,大量的努力都是為了設(shè)計(jì)新穎的算法和方法。從眾多可用的特征選擇算法中,一些經(jīng)典的方法是基于模擬退火和遺傳算法。除此之外,還有大量基于進(jìn)化算法(如粒子群優(yōu)化、蟻群優(yōu)化等)和隨機(jī)方法(如蒙特卡洛)的方法。

69d5f6f8-c52c-11ec-bce3-dac502259ad0.png

1.6機(jī)器學(xué)習(xí)任務(wù)在監(jiān)督學(xué)習(xí)中,兩個(gè)常見的機(jī)器學(xué)習(xí)任務(wù)包括分類和回歸。分類一個(gè)訓(xùn)練好的分類模型將一組變量作為輸入,并預(yù)測輸出的類標(biāo)簽。下圖是由不同顏色和標(biāo)簽表示的三個(gè)類。每一個(gè)小的彩色球體代表一個(gè)數(shù)據(jù)樣本。三類數(shù)據(jù)樣本在二維中的顯示,這種可視化圖可以通過執(zhí)行PCA分析并顯示前兩個(gè)主成分(PC)來創(chuàng)建;或者也可以選擇兩個(gè)變量的簡單散點(diǎn)圖可視化。

69f1c23e-c52c-11ec-bce3-dac502259ad0.png

性能指標(biāo)如何知道訓(xùn)練出來的機(jī)器學(xué)習(xí)模型表現(xiàn)好或壞?就是使用性能評價(jià)指標(biāo)(metrics),一些常見的評估分類性能的指標(biāo)包括準(zhǔn)確率(AC)、靈敏度(SN)、特異性(SP)和馬太相關(guān)系數(shù)(MCC)。回歸最簡單的回歸模式,可以通過以下簡單等式很好地總結(jié):Y = f(X)。其中,Y對應(yīng)量化輸出變量,X指輸入變量,f指計(jì)算輸出值作為輸入特征的映射函數(shù)(從機(jī)器學(xué)習(xí)模型中得到)。

6a1abb4e-c52c-11ec-bce3-dac502259ad0.png

上面的回歸例子公式的實(shí)質(zhì)是,如果X已知,就可以推導(dǎo)出Y。一旦Y被計(jì)算(預(yù)測)出來,一個(gè)流行的可視化方式是將實(shí)際值與預(yù)測值做一個(gè)簡單的散點(diǎn)圖,如下圖所示。 對回歸模型的性能進(jìn)行評估,以評估擬合模型可以準(zhǔn)確預(yù)測輸入數(shù)據(jù)值的程度。評估回歸模型性能的常用指標(biāo)是確定系數(shù)(R2)。此外,均方誤差(MSE)以及均方根誤差(RMSE)也是衡量殘差或預(yù)測誤差的常用指標(biāo)。 —02—深度學(xué)習(xí)算法流程

深度學(xué)習(xí)實(shí)際上是機(jī)器學(xué)習(xí)中的一種范式,所以他們的主要流程是差不多的。深度學(xué)習(xí)則是優(yōu)化了數(shù)據(jù)分析,建模過程的流程也是縮短了,由神經(jīng)網(wǎng)絡(luò)統(tǒng)一了原來機(jī)器學(xué)習(xí)中百花齊放的算法。

在深度學(xué)習(xí)正式大規(guī)模使用之前呢,機(jī)器學(xué)習(xí)算法流程中要花費(fèi)很多時(shí)間去收集數(shù)據(jù),然后對數(shù)據(jù)進(jìn)行篩選,嘗試各種不同的特征提取機(jī)器學(xué)習(xí)算法,或者結(jié)合多種不同的特征對數(shù)據(jù)進(jìn)行分類和回歸。

6a4815c6-c52c-11ec-bce3-dac502259ad0.png

下面是機(jī)器學(xué)習(xí)算法的主要流程:主要從

(1)數(shù)據(jù)集準(zhǔn)備 (2)數(shù)據(jù)預(yù)處理 (3)數(shù)據(jù)分割 (4)定義神經(jīng)網(wǎng)絡(luò)模型 (5)訓(xùn)練網(wǎng)絡(luò) 深度學(xué)習(xí)不需要我們自己去提取特征,而是通過神經(jīng)網(wǎng)絡(luò)自動對數(shù)據(jù)進(jìn)行高維抽象學(xué)習(xí),減少了特征工程的構(gòu)成,在這方面節(jié)約了很多時(shí)間。 但是同時(shí)因?yàn)橐肓烁由睢⒏鼜?fù)雜的網(wǎng)絡(luò)模型結(jié)構(gòu),所以調(diào)參工作變得更加繁重啦。例如:定義神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)、確認(rèn)損失函數(shù)、確定優(yōu)化器,最后就是反復(fù)調(diào)整模型參數(shù)的過程。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的區(qū)別到底是什么?

文章出處:【微信號:cserversoft,微信公眾號:中服云工業(yè)新風(fēng)向】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺巡線,展示了如何從數(shù)據(jù)采集、模型訓(xùn)練到機(jī)器人部署的完整流程。 值得注意的是,深度學(xué)習(xí)模型的實(shí)時(shí)性對機(jī)器人計(jì)算資源提出了較高要求,優(yōu)化模型
    發(fā)表于 05-03 19:41

    請問STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?

    STM32部署機(jī)器學(xué)習(xí)算法硬件至少要使用哪個(gè)系列的芯片?
    發(fā)表于 03-13 07:34

    SLAMTEC Aurora:把深度學(xué)習(xí)“卷”進(jìn)機(jī)器人日常

    在人工智能和機(jī)器人技術(shù)飛速發(fā)展的今天,深度學(xué)習(xí)與SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領(lǐng)著智能機(jī)器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡直殺瘋了!靠著逆天的
    的頭像 發(fā)表于 02-19 15:49 ?491次閱讀

    機(jī)器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場
    的頭像 發(fā)表于 02-13 09:39 ?393次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?912次閱讀

    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機(jī)器算法,AI 算法的知識,需要搭建一個(gè)學(xué)習(xí)環(huán)境,所以就在最近購買的華為云 Flexus X 實(shí)例上安裝了
    的頭像 發(fā)表于 01-02 13:43 ?577次閱讀
    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與
    的頭像 發(fā)表于 12-30 09:16 ?1249次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計(jì)算資源的需求也在不斷增長。NPU作為一種專門為深度
    的頭像 發(fā)表于 11-15 09:19 ?1313次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?2005次閱讀

    AI干貨補(bǔ)給站 | 深度學(xué)習(xí)機(jī)器視覺的融合探索

    ,幫助從業(yè)者積累行業(yè)知識,推動工業(yè)視覺應(yīng)用的快速落地。本期亮點(diǎn)預(yù)告本期將以“深度學(xué)習(xí)機(jī)器視覺的融合探索”為主題,通過講解深度學(xué)習(xí)定義、傳統(tǒng)
    的頭像 發(fā)表于 10-29 08:04 ?598次閱讀
    AI干貨補(bǔ)給站 | <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與<b class='flag-5'>機(jī)器</b>視覺的融合探索

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1470次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 10:57 ?1111次閱讀

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)
    發(fā)表于 10-24 17:22 ?3037次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2970次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 在深度學(xué)習(xí)中應(yīng)用前景的觀點(diǎn),僅供參考: ? 優(yōu)勢方面: ? 高度定制化的計(jì)算架構(gòu):FPGA 可以根據(jù)深度學(xué)習(xí)
    發(fā)表于 09-27 20:53
    主站蜘蛛池模板: 色综合天天综合网看在线影院 | sese亚洲| 91老色批网站免费看 | 免费在线h视频 | 亚洲人的天堂男人爽爽爽 | 色综合色综合色综合色综合网 | 亚洲一级毛片免费在线观看 | 在线观看黄色x视频 | 免费在线观看一级毛片 | 免费精品99久久国产综合精品 | 岛国毛片| 网友偷自拍原创区 | 久久精品综合 | 欧美三级黄 | 中文字幕va一区二区三区 | 激情婷婷六月天 | japan日韩xxxx69hd jdav视频在线观看 | 色网站免费看 | 日本免费不卡在线一区二区三区 | 欧美a性| 久久久久久毛片免费播放 | 欧美xxxx色视频在线观看免费 | 亚洲一区二区三区中文字幕 | 91大神视频在线播放 | 四虎免费影院在线播放 | 欧美色老头| 欧美极品在线视频 | 三级视频网站在线观看 | 精品成人网 | 噜噜噜色网| 99热久久国产精品 | 亚洲欧洲国产精品你懂的 | 四虎影视永久在线观看 | 超人碰碰碰人人成碰人 | 老师办公室高h文小说 | 日本www色| 欧美一区二区三区不卡视频 | 在线观看成人网 | 天天插天天操天天射 | 天天操天天玩 | 六月丁香激情 |