在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

激活函數中sigmoid、ReLU等函數的一些性質

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-08-02 14:52 ? 次閱讀

本文主要是回答激活函數的使用

我們認識的激活函數中sigmoid、ReLU等,今天就是要講解一下這些函數的一些性質

激活函數通常有一些性質:

非線性:當激活函數是線性的時候,一個兩層的神經網絡就可以基本逼近所有的函數,但是,如果激活函數是恒等激活函數的時候,就不滿足這個性質了,而且如果MLP使用的是恒等激活函數,那么其實整個網絡跟單層神經網絡是等價的

可微性:當優化方法是基于梯度的時候,這個性質是必須的

單調性:當激活函數是單調的時候,這個性質是必須的

f(x)≈x:當激活函數滿足這個性質的時候,如果參數的初始化是random的很小的值,那么神經網絡的訓練將會很高效;如果不滿足這個性質,那么就需要很用心的去設置初始值

輸出值的范圍:當激活函數輸出值是有限的時候,基于梯度的優化方法會更加穩定,因為特征的表示,當激活函數的輸出是無限的時候,模型訓練會更加的高效,不過在這種情況很小,一般需要一個更小的學習率

Sigmoid函數

Sigmoid是常用的激活函數,它的數學形式是這樣,

當如果是非常大的負數或者正數的時候,梯度非常小,接近為0,如果你的初始值是很大的話,大部分神經元都出在飽和的情況,會導致很難學習

還有就是Sigmoid的輸出,不是均值為0為的平均數,如果數據進入神經元的時候是正的(e.g.x>0elementwise inf=wTx+b),那么w計算出的梯度也會始終都是正的。

當然了,如果你是按batch去訓練,那么那個batch可能得到不同的信號,所以這個問題還是可以緩解一下的。因此,非0均值這個問題雖然會產生一些不好的影響

tanh

和Sigmoid函數很像,不同的是均值為0,實際上是Sigmoid的變形

數學形式

與Sigmoid不同的是,tanh是均值為0

ReLU

今年來,ReLU貌似用的很多

數學形式

ReLU的優點

相比較其他的,ReLU的收斂速度會比其他的方法收斂速度快的多

ReLU只需要一個閾值就可以得到激活值,而不用去算一大堆復雜的運算

也有一個很不好的缺點:就是當非常大的梯度流過一個 ReLU 神經元,更新過參數之后,這個神經元再也不會對任何數據有激活現象了,所以我們在訓練的時候都需要設置一個比較合適的較小的學習率

Leaky-ReLU、P-ReLU、R-ReLU

數學形式

f(x)=x,(x>=0)

這里的α是一個很小的常數。這樣,即修正了數據分布,又保留了一些負軸的值,使得負軸信息不會全部丟失

自己在寫神經網絡算法的時候還沒嘗試過這個激活函數,有興趣的同學可以試試效果

對于 Leaky ReLU 中的α,通常都是通過先驗知識人工賦值的。

然而可以觀察到,損失函數對α的導數我們是可以求得的,可不可以將它作為一個參數進行訓練呢?

不僅可以訓練,而且效果更好。

如何去選擇

目前業界人都比較流行ReLU,

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4779

    瀏覽量

    101172
  • 函數
    +關注

    關注

    3

    文章

    4346

    瀏覽量

    62973

原文標題:BP神經網絡常用激活函數

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    sigmoid函數波形

    1、Sigmoid函數原型2、sigmoid函數波形:由圖形可看出在-10時已經接近于0,般取值區間在[-5,5]。3、
    發表于 09-03 06:53

    Sigmoid函數介紹

    Sigmoid 函數1.1 Sigmoid函數原型1.2 sigmoid
    發表于 09-03 09:06

    多輸出Plateaued函數的密碼學性質

    該文對多輸出Plateaued 函數一些密碼學性質進行了研究,以多輸出函數的特征函數為工具,建立了多輸出Plateaued
    發表于 11-17 13:51 ?18次下載

    Sigmoid函數的擬合法分析及其高效處理

    使用分段非線性逼近算法計算超越函數,以神經網絡應用最為廣泛的Sigmoid函數為例,結合函數自身對稱的
    發表于 11-15 13:15 ?1.2w次閱讀
    <b class='flag-5'>Sigmoid</b><b class='flag-5'>函數</b>的擬合法分析及其高效處理

    ReLU到Sinc的26種神經網絡激活函數可視化大盤點

    本文介紹了26個激活函數的圖示及其階導數,在神經網絡激活函數決定來自給定輸入集的節點的輸出
    發表于 01-11 17:42 ?3.1w次閱讀
    <b class='flag-5'>ReLU</b>到Sinc的26種神經網絡<b class='flag-5'>激活</b><b class='flag-5'>函數</b>可視化大盤點

    13種神經網絡激活函數

    ReLU(Rectified Linear Unit,修正線性單元)訓練速度比tanh快6倍。當輸入值小于零時,輸出值為零。當輸入值大于等于零時,輸出值等于輸入值。當輸入值為正數時,導數為1,因此不會出現sigmoid函數反向傳
    的頭像 發表于 05-16 11:18 ?3.3w次閱讀
    13種神經網絡<b class='flag-5'>激活</b><b class='flag-5'>函數</b>

    一些人會懷疑:難道神經網絡不是最先進的技術?

    如上圖所示,sigmoid的作用確實是有目共睹的,它能把任何輸入的閾值都限定在0到1之間,非常適合概率預測和分類預測。但這幾年sigmoid與tanh卻直火不起來,凡是提及激活
    的頭像 發表于 06-30 08:55 ?3396次閱讀

    PyTorch已為我們實現了大多數常用的非線性激活函數

    PyTorch已為我們實現了大多數常用的非線性激活函數,我們可以像使用任何其他的層那樣使用它們。讓我們快速看個在PyTorch中使用ReLU激活
    的頭像 發表于 07-06 14:47 ?959次閱讀

    在PyTorch中使用ReLU激活函數的例子

    PyTorch已為我們實現了大多數常用的非線性激活函數,我們可以像使用任何其他的層那樣使用它們。讓我們快速看個在PyTorch中使用ReLU激活
    的頭像 發表于 07-06 15:27 ?2597次閱讀

    Dynamic ReLU:根據輸入動態確定的ReLU

    這是我最近才看到的篇論文,它提出了動態ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數,并相應地調整
    的頭像 發表于 09-01 17:28 ?745次閱讀
    Dynamic <b class='flag-5'>ReLU</b>:根據輸入動態確定的<b class='flag-5'>ReLU</b>

    PyTorch激活函數的全面概覽

    為了更清晰地學習Pytorch激活函數,并對比它們之間的不同,這里對最新版本的Pytorch激活
    的頭像 發表于 04-30 09:26 ?591次閱讀
    PyTorch<b class='flag-5'>中</b><b class='flag-5'>激活</b><b class='flag-5'>函數</b>的全面概覽

    神經網絡激活函數的定義及類型

    引言 神經網絡是種模擬人腦神經元結構的計算模型,廣泛應用于圖像識別、自然語言處理、語音識別領域。在神經網絡激活函數起著至關重要的作用
    的頭像 發表于 07-02 10:09 ?693次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中種重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理領域。在卷積神經網絡
    的頭像 發表于 07-03 09:18 ?1231次閱讀

    BP神經網絡激活函數怎么選擇

    激活函數起著至關重要的作用,它決定了神經元的輸出方式,進而影響整個網絡的性能。 激活函數
    的頭像 發表于 07-03 10:02 ?809次閱讀

    神經元模型激活函數通常有哪幾類

    神經元模型激活函數是神經網絡的關鍵組成部分,它們負責在神經元之間引入非線性,使得神經網絡能夠學習和模擬復雜的函數映射。以下是對神經元模型激活
    的頭像 發表于 07-11 11:33 ?1156次閱讀
    主站蜘蛛池模板: a看片| 人人艹在线 | 国产成人乱码一区二区三区 | 毛片网在线 | 午夜在线视频观看 | 资源在线www天堂 | 欧美日韩无 | 在线一区二区三区 | 国产精品7m凸凹视频分类大全 | 黄色网址 在线播放 | 超级极品白嫩美女在线 | 老师别揉我胸啊嗯上课呢视频 | 樱桃磁力bt天堂 | 色偷偷成人网免费视频男人的天堂 | 五月天激情综合网 | 日本口工禁漫画无遮挡全彩 | 在线观看h网站 | 永久在线观看视频 | 亚洲婷婷在线视频 | 天天躁狠狠躁 | 中国一级毛片aaa片 中国一级特黄aa毛片大片 | 57pao成人永久免费视频 | 免费能直接在线观看黄的视频 | 夜夜操网站| 日本欧美一区二区 | www.色爱| 亚洲狠狠狠一区二区三区 | 亚洲色图综合图片 | 性无码专区无码 | 日韩一卡 二卡 三卡 四卡 免费视频 | 手机看片a永久免费看大片 手机毛片 | 欧美激情一欧美吧 | 色综合激情 | 日本高清视频一区 | 亚洲乱码一区二区三区在线观看 | 欧美四虎影院 | 成人免费看黄网站yyy456 | 天天色天天色天天色 | 中文字幕在线第一页 | 国产午夜视频在线观看网站 | 日本不卡免费高清视频 |