91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深入了解神經(jīng)網(wǎng)絡

人工智能君 ? 來源:人工智能君 ? 作者:人工智能君 ? 2022-07-08 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本章將介紹用于解決實際問題的深度學習架構(gòu)的不同模塊。前一章使用PyTorch的低級操作構(gòu)建了如網(wǎng)絡架構(gòu)、損失函數(shù)和優(yōu)化器這些模塊。本章將介紹用于解決真實問題的神經(jīng)網(wǎng)絡的一些重要組件,以及PyTorch如何通過提供大量高級函數(shù)來抽象出復雜度。本章還將介紹用于解決真實問題的算法,如回歸、二分類、多類別分類等。
本章將討論如下主題:
?詳解神經(jīng)網(wǎng)絡的不同構(gòu)成組件;
?探究PyTorch中用于構(gòu)建深度學習架構(gòu)的高級功能;
?應用深度學習解決實際的圖像分類問題。
3.1詳解神經(jīng)網(wǎng)絡的組成部分
上一章已經(jīng)介紹了訓練深度學習算法需要的幾個步驟。
1.構(gòu)建數(shù)據(jù)管道。
2.構(gòu)建網(wǎng)絡架構(gòu)。
3.使用損失函數(shù)評估架構(gòu)。
4.使用優(yōu)化算法優(yōu)化網(wǎng)絡架構(gòu)的權(quán)重。
上一章中的網(wǎng)絡由使用PyTorch數(shù)值運算構(gòu)建的簡單線性模型組成。盡管使用數(shù)值運算為玩具性質(zhì)的問題搭建神經(jīng)架構(gòu)很簡單,但當需要構(gòu)建解決不同領域的復雜問題時,如計算機視覺和自然語言處理,構(gòu)建一個架構(gòu)就迅速變得復雜起來。大多數(shù)深度學習框架,如PyTorch、TensorFlow和Apache MXNet,都提供了抽象出很多復雜度的高級功能。這些深度學習框架的高級功能稱為層(layer)。它們接收輸入數(shù)據(jù),進行如同在前面一章看到的各種變換,并輸出數(shù)據(jù)。解決真實問題的深度學習架構(gòu)通常由1~150個層組成,有時甚至更多。抽象出低層的運算并訓練深度學習算法的過程如圖3.1所示。

poYBAGLHlGaAeEG8AAD5hFaFo4k373.png

圖3.1
3.1.1層——神經(jīng)網(wǎng)絡的基本組成
在本章的剩余部分,我們會見到各種不同類型的層。首先,先了解其中最重要的一種層:線性層,它就是我們前面講過的網(wǎng)絡層結(jié)構(gòu)。線性層應用了線性變換:
Y=Wx+b
線性層之所以強大,是因為前一章所講的功能都可以寫成單一的代碼行,如下所示。
上述代碼中的myLayer層,接受大小為10的張量作為輸入,并在應用線性變換后輸出一個大小為5的張量。下面是一個簡單例子的實現(xiàn):
可以使用屬性weights和bias訪問層的可訓練參數(shù):
線性層在不同的框架中使用的名稱有所不同,有的稱為dense層,有的稱為全連接層(fully connected layer)。用于解決真實問題的深度學習架構(gòu)通常包含不止一個層。在PyTorch中,可以用多種方式實現(xiàn)。
一個簡單的方法是把一層的輸出傳入給另一層:
每一層都有自己的學習參數(shù),在多個層的架構(gòu)中,每層都學習出它本層一定的模式,其后的層將基于前一層學習出的模式構(gòu)建。把線性層簡單堆疊在一起是有問題的,因為它們不能學習到簡單線性表示以外的新東西。我們通過一個簡單的例子看一下,為什么把線性層堆疊在一起的做法并不合理。
假設有具有如下權(quán)重的兩個線性層:
層 權(quán)重
Layer1 3.0
Layer2 2.0
以上包含兩個不同層的架構(gòu)可以簡單表示為帶有另一不同層的單層。因此,只是堆疊多個線性層并不能幫助我們的算法學習任何新東西。有時,這可能不太容易理解,我們可以用下面的數(shù)學公式對架構(gòu)進行可視化:
Y= 2(3X1) -2Linear layers
Y= 6(X1) -1Linear layers
為解決這一問題,相較于只是專注于線性關(guān)系,我們可以使用不同的非線性函數(shù),幫助學習不同的關(guān)系。
深度學習中有很多不同的非線性函數(shù)。PyTorch以層的形式提供了這些非線性功能,因為可以采用線性層中相同的方式使用它們。
一些流行的非線性函數(shù)如下所示:
?sigmoid
?tanh
?ReLU
?Leaky ReLU
3.1.2非線性激活函數(shù)
非線性激活函數(shù)是獲取輸入,并對其應用數(shù)學變換從而生成輸出的函數(shù)。我們在實戰(zhàn)中可能遇到數(shù)個非線性操作。下面會講解其中幾個常用的非線性激活函數(shù)。
1.sigmoid
sigmoid激活函數(shù)的數(shù)學定義很簡單,如下:

pYYBAGLHlImAORw5AAAcERtbSOY338.png

簡單來說,sigmoid函數(shù)以實數(shù)作為輸入,并以一個0到1之間的數(shù)值作為輸出。對于一個極大的負值,它返回的值接近于0,而對于一個極大的正值,它返回的值接近于1。圖3.2所示為sigmoid函數(shù)不同的輸出。

poYBAGLHlHeAc0KjAABJ_t7RiYQ215.png

圖3.2
sigmoid函數(shù)曾一度被不同的架構(gòu)使用,但由于存在一個主要弊端,因此最近已經(jīng)不太常用了。當sigmoid函數(shù)的輸出值接近于0或1時,sigmoid函數(shù)前一層的梯度接近于0,由于前一層的學習參數(shù)的梯度接近于0,使得權(quán)重不能經(jīng)常調(diào)整,從而產(chǎn)生了無效神經(jīng)元。
2.tanh
非線性函數(shù)tanh將實數(shù)值輸出為-1到1之間的值。當tanh的輸出極值接近-1和1時,也面臨梯度飽和的問題。不過,因為tanh的輸出是以0為中心的,所以比sigmoid更受偏愛,如圖3.3所示。

pYYBAGLHlJ2AL8RjAABLvvoiKWw943.png

圖3.3
3.ReLU
近年來ReLU變得很受歡迎,我們幾乎可以在任意的現(xiàn)代架構(gòu)中找到ReLU或其某一變體的身影。它的數(shù)學公式很簡單:
f(x)=max(0,x)
簡單來說,ReLU把所有負值取作0,正值保持不變??梢詫eLU函數(shù)進行可視化,如圖3.4所示。

poYBAGLHlKeAI2nYAABHxGJ09ns971.png

圖3.4
使用ReLU函數(shù)的一些好處和弊端如下。
?有助于優(yōu)化器更快地找到正確的權(quán)重集合。從技術(shù)上講,它使隨機梯度下降收斂得更快。
?計算成本低,因為只是判斷了閾值,并未計算任何類似于sigmoid或tangent函數(shù)計算的內(nèi)容。
?ReLU有一個缺點,即當一個很大的梯度進行反向傳播時,流經(jīng)的神經(jīng)元經(jīng)常會變得無效,這些神經(jīng)元稱為無效神經(jīng)元,可以通過謹慎選擇學習率來控制。我們將在第4章中討論調(diào)整學習率的不同方式時,了解如何選擇學習率。
4.Leaky ReLU
Leaky ReLU嘗試解決一個問題死角,它不再將飽和度置為0,而是設為一個非常小的數(shù)值,如0.001。對某些用例,這一激活函數(shù)提供了相較于其他激活函數(shù)更優(yōu)異的性能,但它不是連續(xù)的。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103601
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49014

    瀏覽量

    249444
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    labview BP神經(jīng)網(wǎng)絡的實現(xiàn)

    是classes(層級嗎?),希望有前輩能夠詳細的幫我講解下這個范例!!!謝謝!!?。。ū救艘褜P神經(jīng)網(wǎng)絡的理論知識有了了解
    發(fā)表于 02-22 16:08

    卷積神經(jīng)網(wǎng)絡如何使用

    卷積神經(jīng)網(wǎng)絡(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    今天學習了兩個神經(jīng)網(wǎng)絡,分別是自適應諧振(ART)神經(jīng)網(wǎng)絡與自組織映射(SOM)神經(jīng)網(wǎng)絡。整體感覺不是很難,只不過一些最基礎的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡是競爭學習的一個代表,
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡實現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復雜的實際問題。那有哪些辦法能實現(xiàn)人工神經(jīng)
    發(fā)表于 08-01 08:06

    卷積神經(jīng)網(wǎng)絡原理及發(fā)展過程

    Top100論文導讀:深入理解卷積神經(jīng)網(wǎng)絡CNN(Part Ⅰ)
    發(fā)表于 09-06 17:25

    如何構(gòu)建神經(jīng)網(wǎng)絡

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡的PID控制

    最近在學習電機的智能控制,上周學習了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡的PID控制。神經(jīng)網(wǎng)絡具有任意非線性表達能力,可以通過對系統(tǒng)性能的學習來實現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    神經(jīng)網(wǎng)絡移植到STM32的方法

    問題,一個是神經(jīng)網(wǎng)絡的移植,另一個是STM32的計算速度。神經(jīng)網(wǎng)絡的移植網(wǎng)絡采用的是最簡單的BP神經(jīng)網(wǎng)絡,基本原理可以自己去了解一下,大概就
    發(fā)表于 01-11 06:20

    遷移學習

    神經(jīng)網(wǎng)絡訓練方法卷積神經(jīng)網(wǎng)絡介紹經(jīng)典網(wǎng)絡結(jié)構(gòu)介紹章節(jié)目標:深入了解神經(jīng)網(wǎng)絡的組成、訓練和實現(xiàn),掌握深度空間特征分布等關(guān)鍵概念,為深度遷移學習
    發(fā)表于 04-21 15:15

    機器學習簡介與經(jīng)典機器學習算法人才培養(yǎng)

    神經(jīng)網(wǎng)絡訓練方法卷積神經(jīng)網(wǎng)絡介紹經(jīng)典網(wǎng)絡結(jié)構(gòu)介紹章節(jié)目標:深入了解神經(jīng)網(wǎng)絡的組成、訓練和實現(xiàn),掌握深度空間特征分布等關(guān)鍵概念,為深度遷移學習
    發(fā)表于 04-28 18:56

    卷積神經(jīng)網(wǎng)絡CNN架構(gòu)分析-LeNet

    對于神經(jīng)網(wǎng)絡和卷積有了粗淺的了解,關(guān)于CNN 卷積神經(jīng)網(wǎng)絡,需要總結(jié)深入的知識有很多:人工神經(jīng)網(wǎng)絡 ANN卷積
    發(fā)表于 11-16 13:28 ?2991次閱讀
    卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>CNN架構(gòu)分析-LeNet

    帶你了解深入深度學習的核心:神經(jīng)網(wǎng)絡

    深度學習和人工智能是 2017 年的熱詞;2018 年,這兩個詞愈發(fā)火熱,但也更加容易混淆。我們將深入深度學習的核心,也就是神經(jīng)網(wǎng)絡。
    的頭像 發(fā)表于 04-02 09:47 ?1w次閱讀
    帶你<b class='flag-5'>了解</b><b class='flag-5'>深入</b>深度學習的核心:<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    深度神經(jīng)網(wǎng)絡與基本神經(jīng)網(wǎng)絡的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(通常指傳統(tǒng)神經(jīng)網(wǎng)絡或前向神經(jīng)網(wǎng)絡)的區(qū)別時,我們需要從多個維度進行
    的頭像 發(fā)表于 07-04 13:20 ?1833次閱讀

    BP神經(jīng)網(wǎng)絡和人工神經(jīng)網(wǎng)絡的區(qū)別

    BP神經(jīng)網(wǎng)絡和人工神經(jīng)網(wǎng)絡(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡領域中一個基礎且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應用及未來發(fā)展等多個方面,詳細闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?2312次閱讀
    主站蜘蛛池模板: 大色综合 | 天堂网www在线资源网 | 最新亚洲人成网站在线影院 | 日本在线不卡免 | 97色网| 亚洲午夜在线观看 | 色综合色综合色综合网址 | 五月婷婷六月激情 | 亚洲a毛片| 四虎一区二区三区精品 | 丁香六月激情 | www.亚洲欧美| 午夜免费视频 | 天天干天天色天天 | 欧美肉到失禁高h视频在线 欧美三级成人 | 日日操天天操夜夜操 | 黄色aaa大片 | 国产色司机在线视频免费观看 | 国产午夜视频在线观看 | 国产福利午夜自产拍视频在线 | 最好看的2019中文字幕免费高清 | 精品国产香港三级 | 午夜dy888理论在线播放 | 免费操人视频 | 欧美精品一区二区三区在线播放 | 久久久久久99 | 精品三级视频 | 特黄一级真人毛片 | 在线免费观看色视频 | 国产一区二区三区免费大片天美 | 色天使视频 | 免费的色视频 | 日日爽夜夜爽 | 国产黄色在线网站 | 性色影院 | 女人张开腿等男人桶免费视频 | 国产在线h视频 | 免费国产高清精品一区在线 | 久久看片网 | 午夜精品久久久久久影视riav | 男女交性视频免费播放 |