在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

jmiy_worldofai ? 作者:易水寒 ? 2018-04-02 09:47 ? 次閱讀

概述

深度學(xué)習(xí)人工智能是 2017 年的熱詞;2018 年,這兩個(gè)詞愈發(fā)火熱,但也更加容易混淆。我們將深入深度學(xué)習(xí)的核心,也就是神經(jīng)網(wǎng)絡(luò)。大多數(shù)神經(jīng)網(wǎng)絡(luò)的變體是難以理解的,并且它們的底層結(jié)構(gòu)組件使得它們在理論上和圖形上是一樣的。

下圖展示了最流行的神經(jīng)網(wǎng)絡(luò)變體。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

本文介紹卷積神經(jīng)網(wǎng)絡(luò)(CNN)。在開始之前,我們首先了解一下感知機(jī)。神經(jīng)網(wǎng)絡(luò)是一些被稱作感知機(jī)的單元的集合,感知機(jī)是二元線性分類器。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

如上圖所示,輸入 x1 和 x2 分別和各自的權(quán)重 w1 和 w2 相乘、求和,所以函數(shù) f=x1*w1+x2*w2+b(偏置項(xiàng),可以選擇性地添加)。函數(shù) f 可以是任意的運(yùn)算,但是對于感知機(jī)而言通常是求和。函數(shù) f 隨后會通過一個(gè)激活函數(shù)來評估,該激活函數(shù)能夠?qū)崿F(xiàn)期望分類。Sigmoid 函數(shù)是用于二元分類的最常見的激活函數(shù)。如果您想進(jìn)一步了解感知機(jī),推薦閱讀這篇文章(https://appliedgo.net/perceptron/)。

如果我們把多個(gè)輸入堆疊在一起,并且使用函數(shù) f 將其與位于另一層的多個(gè)堆疊在一起的單元連接在一起,這就形成了多個(gè)全連接的感知機(jī),這些單元(隱藏層)的輸出成為最后一個(gè)單元的輸入,再通過函數(shù) f 和激活函數(shù)得到最終的分類。如下圖所示,這個(gè)就是最簡單的神經(jīng)網(wǎng)絡(luò)。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)有一個(gè)獨(dú)特的能力,被稱作「泛逼近函數(shù)」(Universal Approximation function),所以神經(jīng)網(wǎng)絡(luò)的拓?fù)浜徒Y(jié)構(gòu)變體是很多樣化的。這本身就是一個(gè)很大的話題,Michael Nielsen 在文章中做了詳細(xì)的描述(http://neuralnetworksanddeeplearning.com/chap4.html)。讀完這個(gè)我們可以相信:神經(jīng)網(wǎng)絡(luò)可以模擬任何函數(shù),不管它是多么的復(fù)雜。上面提到的神經(jīng)網(wǎng)絡(luò)也被稱為前饋神經(jīng)網(wǎng)絡(luò)(FFNN),因?yàn)樾畔⒘魇菃蜗颉o環(huán)的。現(xiàn)在我們已經(jīng)理解了感知機(jī)和前饋神經(jīng)網(wǎng)絡(luò)的基本知識,我們可以想象,數(shù)百個(gè)輸入連接到數(shù)個(gè)這樣的隱藏層會形成一個(gè)復(fù)雜的神經(jīng)網(wǎng)絡(luò),通常被稱為深度神經(jīng)網(wǎng)絡(luò)或者深度前饋神經(jīng)網(wǎng)絡(luò)。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

那么深度神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么不同呢?讓我們來探討一下。

CNN 由于被應(yīng)用在 ImageNet 等競賽中而廣受歡迎,最近也被應(yīng)用在自然語言處理和語音識別中。需要記住的關(guān)鍵點(diǎn)是,其他的變體,如 RNN、LSTM、GRU 等,基于和 CNN 類似的結(jié)構(gòu),不過架構(gòu)存在一些差異。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

CNN 由三種不同的層組成,即「卷積層」、「池化層」、「密集層或全連接層」。我們之前的神經(jīng)網(wǎng)絡(luò)都是典型的全連接層神經(jīng)網(wǎng)絡(luò)。如果想了解更多卷積和池化層的知識,可以閱讀 Andrej Karpathy 的解釋(https://cs231n.github.io/convolutional-networks/)。現(xiàn)在繼續(xù)我們關(guān)于層的討論,下面我們來看一下卷積層。

(在下面的內(nèi)容里,我們會以圖像分類為例來理解卷積神經(jīng)網(wǎng)絡(luò),后面再轉(zhuǎn)移到自然語言處理和視頻任務(wù)中。)

卷積層:假設(shè)一張圖像有 5*5 個(gè)像素,1 代表白,0 代表黑,這幅圖像被視為 5*5 的單色圖像。現(xiàn)在用一個(gè)由隨機(jī)地 0 和 1 組成的 3*3 矩陣去和圖像中的子區(qū)域做乘法,每次迭代移動一個(gè)像素,這樣該乘法會得到一個(gè)新的 3*3 的矩陣。下面的動圖展示了這個(gè)過程。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

上述的 3*3 的矩陣被稱作「濾波器」,它的任務(wù)是提取圖像特征,它使用「優(yōu)化算法」來決定 3*3 矩陣中具體的 0 和 1。我們在神經(jīng)網(wǎng)絡(luò)的卷積層中使用好幾個(gè)這樣的濾波器來提取多個(gè)特征。3*3 矩陣的每一個(gè)單個(gè)步驟被稱作「步幅」(stride)。

下圖展示了使用兩個(gè)三通道濾波器從三通道(RGB)圖像中生成兩個(gè)卷積輸出的詳細(xì)過程。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

濾波器 w0 和 w1 是「卷積」,輸出是提取到的特征,包含這些濾波器的層叫做卷積層。

池化層:這個(gè)層主要使用不同的函數(shù)為輸入降維。通常,最大池化層(max-pooling layer)出現(xiàn)在卷積層之后。池化層使用 2*2 的矩陣,以卷積層相同的方式處理圖像,不過它是給圖像本身降維。下面分別是使用「最大池化」和「平均池化」的示例。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

全連接層:這個(gè)層是位于之前一層和激活函數(shù)之間的全連接層。它和之前討論過的簡單「神經(jīng)網(wǎng)絡(luò)」是類似的。

注意:卷積神經(jīng)網(wǎng)絡(luò)結(jié)果也會使用正則化層,不過本文將分開討論。此外,池化層會損失信息,所以也不是首選的。通常的做法是在卷機(jī)層中使用一個(gè)較大的步幅。

ILSVRC 2014 的亞軍 VGGNet 是一個(gè)流行的卷積神經(jīng)網(wǎng)絡(luò),它使用 16 個(gè)層來幫助我們理解 CNN 中深度的重要性,AlexNet 是 ILSVRC 2012 的冠軍,它只有 8 層。Keras 中有可以直接使用的模型 VGG-16。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

在 Keras 中加載了這個(gè)模型之后,我們可以觀察每一層的「output shape」來理解張量維度,觀察「Param#」來了解如何計(jì)算參數(shù)來得到卷積特征。「Param#」是每一次獲取卷積特征時(shí)的所有權(quán)重更新。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:掃盲 | 一文看懂卷積神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    詳解深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?2725次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    俊楠分享了典型模式-深度神經(jīng)網(wǎng)絡(luò)入門。本文詳細(xì)介紹了關(guān)于深度神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,并詳細(xì)介紹了各個(gè)階段模型的結(jié)構(gòu)及特點(diǎn)。直播回顧請點(diǎn)擊以下是精彩視頻內(nèi)容整理:問題引出
    發(fā)表于 05-08 15:57

    神經(jīng)網(wǎng)絡(luò)資料

    基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 05-16 17:25

    卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究及學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》03卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究 學(xué)習(xí)總結(jié)
    發(fā)表于 05-22 17:15

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
    發(fā)表于 06-14 22:21

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義
    發(fā)表于 07-20 08:58 ?0次下載

    詳細(xì)解析神經(jīng)網(wǎng)絡(luò)的含義、挑戰(zhàn)、類型、應(yīng)用

    Statsbot深度學(xué)習(xí)開發(fā)者Jay Shah帶你入門神經(jīng)網(wǎng)絡(luò),一起了解自動編碼器、卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 01-15 17:11 ?9579次閱讀

    快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載

    本文檔的詳細(xì)介紹的是快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費(fèi)下載主要內(nèi)容包括了:機(jī)器學(xué)習(xí)概述,線性模型,前饋
    發(fā)表于 02-11 08:00 ?33次下載
    快速<b class='flag-5'>了解</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的教程資料免費(fèi)下載

    3小時(shí)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)課件下載

    3小時(shí)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)課件下載
    發(fā)表于 04-19 09:36 ?0次下載
    3小時(shí)<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>課件下載

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的核心
    的頭像 發(fā)表于 02-23 09:14 ?4222次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)
    發(fā)表于 08-21 17:07 ?4610次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    到自然語言處理,深度學(xué)習(xí)和CNN正逐步改變著我們的生活方式。本文將深入探討深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 18:19 ?1372次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需
    的頭像 發(fā)表于 07-04 13:20 ?1705次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播
    的頭像 發(fā)表于 02-12 15:15 ?751次閱讀
    主站蜘蛛池模板: 欧日韩视频777888 | 福利视频免费看 | 夜夜艹天天干 | 亚洲娇小性色xxxx | 日本aaaaa毛片动漫 | 国产成人三级 | 日本三级免费观看 | 不卡视频一区二区三区 | 天天爱夜夜爽 | 免费一级片在线 | 色色色色色色网 | 种子在线搜索 | 免费的国语一级淫片 | 黄色爱爱视频 | 美女国产在线观看免费观看 | 日本免费一区二区视频 | 亚洲激情视频 | 啪啪网免费 | aa毛片 | 欧美一级在线全免费 | 亚洲一卡2卡4卡5卡6卡在线99 | 免费高清在线爱做视频 | 欲妇放荡叫床很浪的小说 | 扒开双腿爽爽爽视频www | 另类性欧美喷潮videofree | 在线观看一级片 | 国产黄在线观看 | 视频在线观看一区 | 免费午夜不卡毛片 | 四虎永久在线精品影院 | 亚洲成人网在线观看 | 日本免费一区二区老鸭窝 | 久久婷婷色一区二区三区 | www.五月婷婷 | 又粗又长又大真舒服好爽漫画 | 老司机亚洲精品影院在线观看 | 欲香欲色| 久青草国产手机在线视频 | 婷婷sese | 天天干天天操天天插 | 中国女人a毛片免费全部播放 |