在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)基本概念總結(jié)

汽車玩家 ? 來源:CSDN ? 作者:HamTam12 ? 2020-04-04 17:45 ? 次閱讀

卷積神經(jīng)網(wǎng)絡(luò)(CNN) 具有局部互聯(lián)、權(quán)值共享、下采樣(池化)和使用多個(gè)卷積層的特點(diǎn)。

局部互聯(lián) 是指每個(gè)神經(jīng)元只感受局部的圖像區(qū)域,也就是卷積操作。

權(quán)值共享 是指當(dāng)前層所有特征圖共用一個(gè)卷積核,每個(gè)卷積核提取一種特征,參數(shù)量明顯下降;使用多個(gè)卷積核可以提取多種特征。

下采樣 每次對輸入的特征圖錯(cuò)開一行或一列,能夠壓縮特征圖大小,特征降維,提取主要特征,將語義相似的特征融合,對平移形變不敏感,提高模型泛化能力。

使用多個(gè)卷積層 能夠提取更深層次的特征,組合特征實(shí)現(xiàn)從低級到高級、局部到整體的特征提取。

卷積層 任務(wù)是檢測前一層的局部特征,即用來進(jìn)行特征提取,用不同的卷積核卷積得到不同的特征,通過多層卷積實(shí)現(xiàn)特征的組合,完成從低級到高級、局部與整體的特征提取。例如,圖像先提取邊緣特征,組合成形狀特征,再得到更高級的特征;語音和文本具有相似特征,從聲音到語音,再到音素、音節(jié)、單詞、句子。

下采樣(池化)層 對輸入的特征圖錯(cuò)開行或列,壓縮特征圖大小,降低參數(shù)量和計(jì)算復(fù)雜度,也對特征進(jìn)行了壓縮,提取主要特征,將語義相似的特征融合起來,對微小的平移和形變不敏感。包括平均池化和最大池化和隨機(jī)池化,平均池化領(lǐng)域內(nèi)方差小,更多的保留圖像的背景信息,最大池化領(lǐng)域內(nèi)均值偏移大,更多的保留圖像的紋理信息,隨機(jī)池化(Stochastic Pooling)則介于兩者之間。

全連接層 將二維空間轉(zhuǎn)化成一維向量,將全連接層的輸出送入分類器或回歸器來做分類和回歸。

在卷積神經(jīng)網(wǎng)絡(luò)中,前面的卷積層的參數(shù)少但計(jì)算量大,后面的全連接層則相反,因此加速優(yōu)化重心放在前面的卷積層,參數(shù)調(diào)優(yōu)的重心放在后面的全連接層。

全卷積網(wǎng)絡(luò) 將一般的卷積神經(jīng)網(wǎng)絡(luò)的全連接層替換成1x1的卷積層,使得網(wǎng)絡(luò)可以接受任意大小的輸入圖像,網(wǎng)絡(luò)輸出的是一張?zhí)卣鲌D,特征圖上的每個(gè)點(diǎn)對應(yīng)其輸入圖像上的感受野區(qū)域。

多個(gè)3x3卷積比7x7卷積的優(yōu)點(diǎn)在于,參數(shù)量減少并且非線性表達(dá)能力增強(qiáng);1x1卷積的作用在于,可以用于特征降維與升維,各通道特征融合,以及全卷積網(wǎng)絡(luò)(支持任意輸入圖像大小)。

深度神經(jīng)網(wǎng)絡(luò)具有從低級到高級、局部到整體的特征表達(dá)和學(xué)習(xí)能力,相比于淺層網(wǎng)絡(luò)能更簡潔緊湊的提取特征,但訓(xùn)練時(shí)容易發(fā)生過擬合、梯度彌散和局部極值的問題。

過擬合(Overfitting) 一般發(fā)生在數(shù)據(jù)量較少而模型參數(shù)較多時(shí),其表現(xiàn)是模型在訓(xùn)練時(shí)變現(xiàn)的很好(error和loss很低)、但在測試時(shí)較差(error和loss較大),使得模型的泛化能力不行。歸根結(jié)底是數(shù)據(jù)量不夠多不夠好,最好的辦法是通過增加數(shù)據(jù)量(更多更全的數(shù)據(jù)、數(shù)據(jù)增廣、數(shù)據(jù)清洗),還可以通過使用dropout、BN、正則化等來防止過擬合,訓(xùn)練時(shí)的trick是適當(dāng)增加訓(xùn)練時(shí)的batchsize、適當(dāng)降低學(xué)習(xí)率。

梯度彌散(Gradient Vanish) 是指在靠近輸出層的隱層訓(xùn)練的好,但在靠近輸入層的隱層幾乎無法訓(xùn)練,是多層使用sigmoid激活函數(shù)所致(sigmoid函數(shù)在接近1的部分梯度下降的太快),用ReLu激活函數(shù)可以緩解這個(gè)問題。

局部極值 是指在訓(xùn)練深度網(wǎng)絡(luò)時(shí)求解一個(gè)高度非凸的優(yōu)化問題如最小化訓(xùn)練誤差loss可能會(huì)得到壞的局部極值而非全局極值。采用梯度下降法也可能存在這種問題。

Dropout 是在訓(xùn)練時(shí)隨機(jī)拋棄隱層中的部分神經(jīng)元,在某次訓(xùn)練時(shí)不更新權(quán)值,防止過擬合(過擬合發(fā)生在模型參數(shù)遠(yuǎn)大于數(shù)據(jù)量時(shí),而dropout變相的減少了模型參數(shù)),提高泛化能力,在全連接層使用。感覺是模仿了生物神經(jīng)系統(tǒng)。Dropout使得隨機(jī)拋棄的神經(jīng)元既不參加前向計(jì)算,也不需要反向傳播。

歸一化(Normalization) 用于加速收斂,提高模型精度,包括LRN(Local Response Normalization)、BN(Batch Normalization)等,有助于模型泛化。

BN(Batch Normalization) 希望激活函數(shù)的輸出盡量滿足高斯分布,可以在全連接層后、激活層前加上BN,本質(zhì)目的是促進(jìn)模型收斂,降低初始值對模型訓(xùn)練的影響,提高模型精度和泛化能力。使用了BN,就不需要使用LRN(AlexNet中用到的局部響應(yīng)歸一化),也不需要過多的考慮權(quán)重初始值、Dropout和權(quán)重懲罰項(xiàng)的參數(shù)設(shè)置問題。

正則化(Regularization)包括L1、L2范數(shù)正則化,加入正則化懲罰項(xiàng),能夠防止過擬合,提高模型泛化能力。

梯度下降 包括批量梯度下降、隨機(jī)梯度下降。可以比作下山問題,下山方向永遠(yuǎn)是梯度下降最快的方向,學(xué)習(xí)率即下山的步長。

批量梯度下降 每次迭代使用全部訓(xùn)練樣本來計(jì)算損失函數(shù)和梯度,來更新模型參數(shù)。每次迭代都朝著正確的方向進(jìn)行,保證收斂于極值點(diǎn)(也可能是局部極值點(diǎn)。.),但迭代太慢,計(jì)算冗余,消耗大量內(nèi)存。

隨機(jī)梯度下降 實(shí)際上是小批量梯度下降,每次迭代隨機(jī)使用小批量例如k個(gè)訓(xùn)練樣本計(jì)算損失函數(shù)和梯度,來更新模型參數(shù)。每次迭代不一定會(huì)朝著正確方向進(jìn)行,可能會(huì)有波動(dòng),但也會(huì)收斂于極值點(diǎn),即保證收斂性又保證收斂速度。

激活函數(shù) 主要有ReLu激活函數(shù)、Sigmoid激活函數(shù)、Tanh激活函數(shù)。它們都是非線性激活函數(shù)(ReLu是規(guī)整化線性函數(shù)),比線性激活函數(shù)具有更強(qiáng)的特征表達(dá)能力。Sigmoid函數(shù)的x越大,導(dǎo)數(shù)越接近0,反向傳播到遠(yuǎn)離輸出層時(shí)容易出現(xiàn)梯度彌散,現(xiàn)在一般用ReLu用作激活函數(shù)來防止梯度彌散。

數(shù)據(jù)預(yù)處理 數(shù)據(jù)歸一化(去均值歸一化)、PCA主成分分析、ZCA白化。數(shù)據(jù)歸一化的好處在于使得訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)具有一致的數(shù)據(jù)分布,增強(qiáng)模型的泛化能力。

PCA主分量分析 用于數(shù)據(jù)降維和降低特征間相關(guān)度,需要特征均值接近0且各特征的方差接近,因此需要先做去均值,一般情況下都不需要做方差歸一化。

ZCA白化 用于降低特征冗余度(不降維),需要特征間相關(guān)度較低且特征具有相同的方差,因此ZCA白化一般是在PCA白化的基礎(chǔ)上做的,可以看做是各個(gè)特征的幅度歸一化。

圖像處理與數(shù)據(jù)增廣 顏色轉(zhuǎn)換、對比度拉伸、直方圖均衡、局部直方圖均衡、加隨機(jī)噪聲、平移、縮放、旋轉(zhuǎn)、鏡像、投影變換、隨機(jī)裁剪等。

如何提高深度學(xué)習(xí)算法性能?

1.通過數(shù)據(jù)

更多的數(shù)據(jù)樣本

數(shù)據(jù)的代表性、全面性

數(shù)據(jù)預(yù)處理

圖像處理與數(shù)據(jù)增廣

數(shù)據(jù)清洗

難例

2.通過算法

選擇合適的網(wǎng)絡(luò)模型(包括網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)參數(shù))

在已有模型上進(jìn)行fine-tune

dropout、normalization、正則化

合理調(diào)節(jié)訓(xùn)練參數(shù)(學(xué)習(xí)率、batchsize等)

根據(jù)具體應(yīng)用場景還可能需要修改損失函數(shù)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18571
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5523

    瀏覽量

    121735
收藏 人收藏

    評論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?212次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?916次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1117次閱讀

    Linux應(yīng)用編程的基本概念

    Linux應(yīng)用編程涉及到在Linux環(huán)境下開發(fā)和運(yùn)行應(yīng)用程序的一系列概念。以下是一些涵蓋Linux應(yīng)用編程的基本概念
    的頭像 發(fā)表于 10-24 17:19 ?320次閱讀

    socket的基本概念和原理

    的通信。它是一個(gè)抽象的概念,用于表示網(wǎng)絡(luò)中的一個(gè)通信實(shí)體。在計(jì)算機(jī)網(wǎng)絡(luò)中,Socket允許應(yīng)用程序通過網(wǎng)絡(luò)發(fā)送和接收數(shù)據(jù)。Socket的概念最早由UNIX操作系統(tǒng)引入,后來被廣泛應(yīng)用于各種操作系統(tǒng)和編程語言中。 2. Socket的基本
    的頭像 發(fā)表于 08-16 10:51 ?1585次閱讀

    AI入門之深度學(xué)習(xí)基本概念

    1、什么是深度學(xué)習(xí) 1.1、機(jī)器學(xué)習(xí) ?? ? 圖1:計(jì)算機(jī)有效工作的常用方法:程序員編寫規(guī)則(程序),計(jì)算機(jī)遵循這些規(guī)則將輸入數(shù)據(jù)轉(zhuǎn)換為適當(dāng)?shù)拇鸢浮_@一方法被稱為符號主義人工智能,適合用來解決定
    的頭像 發(fā)表于 08-08 11:24 ?2067次閱讀
    AI入門之<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>:<b class='flag-5'>基本概念</b>篇

    BP網(wǎng)絡(luò)的基本概念和訓(xùn)練原理

    )的多層前饋神經(jīng)網(wǎng)絡(luò)。BP網(wǎng)絡(luò)自1985年提出以來,因其強(qiáng)大的學(xué)習(xí)和適應(yīng)能力,在機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、模式識(shí)別等領(lǐng)域得到了廣泛應(yīng)用。以下將對BP網(wǎng)絡(luò)的基本概念、訓(xùn)練原理及其優(yōu)缺點(diǎn)進(jìn)行詳細(xì)闡述。
    的頭像 發(fā)表于 07-19 17:24 ?1976次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    基本概念、原理、特點(diǎn)以及在不同領(lǐng)域的應(yīng)用情況。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本概念 卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)算法,它由多層卷積層和池化層堆疊而成。卷積層負(fù)責(zé)提取圖像中的局部特征,而池化層則
    的頭像 發(fā)表于 07-11 14:38 ?1562次閱讀

    遷移學(xué)習(xí)基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,其核心思想是利用在一個(gè)任務(wù)或領(lǐng)域中學(xué)到的知識(shí)來加速或改進(jìn)另一個(gè)相關(guān)任務(wù)或領(lǐng)域的學(xué)習(xí)過程。這種方法在數(shù)據(jù)稀缺
    的頭像 發(fā)表于 07-04 17:30 ?2087次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念

    循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念、循環(huán)機(jī)制、長短時(shí)記憶網(wǎng)絡(luò)(LSTM)、門控循環(huán)單元(GRU)等方面進(jìn)行介紹。 循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)是一種時(shí)間序列模型,其基本思想是將序列數(shù)據(jù)中的每個(gè)元素(例如,單詞、時(shí)間點(diǎn)等)作為輸入,通過循環(huán)結(jié)構(gòu)將前一個(gè)時(shí)間步的
    的頭像 發(fā)表于 07-04 14:31 ?900次閱讀

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機(jī)器學(xué)習(xí)(Machine Learning, ML)和深度學(xué)習(xí)(Deep Learning, DL)已成為
    的頭像 發(fā)表于 07-03 18:22 ?1548次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    到自然語言處理,深度學(xué)習(xí)和CNN正逐步改變著我們的生活方式。本文將深入探討深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的基本概念、工作原理及其在多個(gè)領(lǐng)域的應(yīng)用,并
    的頭像 發(fā)表于 07-02 18:19 ?1094次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念和工作原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是深度學(xué)習(xí)中非常重要的一類神經(jīng)網(wǎng)絡(luò),主要用于圖像識(shí)別、圖像分類、物體檢測等計(jì)算機(jī)視覺任務(wù)。CNN以其獨(dú)特的結(jié)構(gòu)
    的頭像 發(fā)表于 07-02 18:17 ?4284次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是一種廣泛應(yīng)用于圖像識(shí)別、視頻分析和自然語言處理等領(lǐng)域的深度學(xué)習(xí)模型。 引言 深度
    的頭像 發(fā)表于 07-02 10:11 ?1w次閱讀

    串口通信的基本概念

    串口通信(Serial Communications)的基本概念可以歸納為以下幾個(gè)方面:
    的頭像 發(fā)表于 06-12 09:28 ?944次閱讀
    串口通信的<b class='flag-5'>基本概念</b>
    主站蜘蛛池模板: 波多野吉衣一区二区三区在线观看 | 天天舔天天摸 | 国产精品亚洲色图 | 2021av网站 | 美日韩免费视频 | 国产美女精品久久久久中文 | 日本高清色视频www 日本高清色视频在线观看免费 | 国产三级香港三级人妇 | 特黄视频免费看 | 免费观看成年欧美1314www色 | 亚洲天堂亚洲天堂 | 午夜看片福利 | 色多多在线观看 | 久久国产免费观看 | 亚洲综合欧美日本另类激情 | 宅男在线看片 | 久久深夜福利 | 免费我看视频在线观看 | 又长又大又粗又硬3p免费视 | 91华人在线视频 | 婷婷久久综合网 | 一级毛片一片毛 | 手机在线观看毛片 | 久久影院午夜伦手机不四虎卡 | 中文字幕一区二区视频 | 4455亚洲| 欧美日韩啪啪 | 色欲麻豆国产福利精品 | 在线视频观看免费 | 久久福利青草精品资源 | 午夜美女久久久久爽久久 | 国产亚洲情侣久久精品 | 一区二区三区四区视频 | h版欧美一区二区三区四区 h网站亚洲 | 天天爽夜爽免费精品视频 | 亚洲狠狠婷婷综合久久久图片 | 久久最新精品 | 成人黄色三级 | 综合五月激情 | 四虎影视在线影院在线观看 | 亚洲性人人天天夜夜摸 |