0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

激活函数中sigmoid、ReLU等函数的一些性质

lviY_AI_shequ 来源:未知 作者:李倩 2018-08-02 14:52 次阅读

本文主要是回答激活函数的使用

我们认识的激活函数中sigmoid、ReLU等,今天就是要讲解一下这些函数的一些性质

激活函数通常有一些性质:

非线性:当激活函数是线性的时候,一个两层的神经网络就可以基本逼近所有的函数,但是,如果激活函数是恒等激活函数的时候,就不满足这个性质了,而且如果MLP使用的是恒等激活函数,那么其实整个网络跟单层神经网络是等价的

可微性:当优化方法是基于梯度的时候,这个性质是必须的

单调性:当激活函数是单调的时候,这个性质是必须的

f(x)≈x:当激活函数满足这个性质的时候,如果参数的初始化是random的很小的值,那么神经网络的训练将会很高效;如果不满足这个性质,那么就需要很用心的去设置初始值

输出值的范围:当激活函数输出值是有限的时候,基于梯度的优化方法会更加稳定,因为特征的表示,当激活函数的输出是无限的时候,模型训练会更加的高效,不过在这种情况很小,一般需要一个更小的学习率

Sigmoid函数

Sigmoid是常用的激活函数,它的数学形式是这样,

当如果是非常大的负数或者正数的时候,梯度非常小,接近为0,如果你的初始值是很大的话,大部分神经元都出在饱和的情况,会导致很难学习

还有就是Sigmoid的输出,不是均值为0为的平均数,如果数据进入神经元的时候是正的(e.g.x>0elementwise inf=wTx+b),那么w计算出的梯度也会始终都是正的。

当然了,如果你是按batch去训练,那么那个batch可能得到不同的信号,所以这个问题还是可以缓解一下的。因此,非0均值这个问题虽然会产生一些不好的影响

tanh

和Sigmoid函数很像,不同的是均值为0,实际上是Sigmoid的变形

数学形式

与Sigmoid不同的是,tanh是均值为0

ReLU

今年来,ReLU貌似用的很多

数学形式

ReLU的优点

相比较其他的,ReLU的收敛速度会比其他的方法收敛速度快的多

ReLU只需要一个阈值就可以得到激活值,而不用去算一大堆复杂的运算

也有一个很不好的缺点:就是当非常大的梯度流过一个 ReLU 神经元,更新过参数之后,这个神经元再也不会对任何数据有激活现象了,所以我们在训练的时候都需要设置一个比较合适的较小的学习率

Leaky-ReLU、P-ReLU、R-ReLU

数学形式

f(x)=x,(x>=0)

这里的α是一个很小的常数。这样,即修正了数据分布,又保留了一些负轴的值,使得负轴信息不会全部丢失

自己在写神经网络算法的时候还没尝试过这个激活函数,有兴趣的同学可以试试效果

对于 Leaky ReLU 中的α,通常都是通过先验知识人工赋值的。

然而可以观察到,损失函数对α的导数我们是可以求得的,可不可以将它作为一个参数进行训练呢?

不仅可以训练,而且效果更好。

如何去选择

目前业界人都比较流行ReLU,

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4572

    浏览量

    98743
  • 函数
    +关注

    关注

    3

    文章

    3868

    浏览量

    61308

原文标题:BP神经网络常用激活函数

文章出处:【微信号:AI_shequ,微信公众号:人工智能爱好者社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    sigmoid函数波形

    1、Sigmoid函数原型2、sigmoid函数波形:由图形可看出在-10时已经接近于0,般取值区间在[-5,5]。3、
    发表于 09-03 06:53

    Sigmoid函数介绍

    Sigmoid 函数1.1 Sigmoid函数原型1.2 sigmoid
    发表于 09-03 09:06

    SigMoid函数怎么实现用以步进电机的控制方法?

    SigMoid函数怎么实现用以步进电机的控制方法?
    发表于 10-13 07:21

    多输出Plateaued函数的密码学性质

    该文对多输出Plateaued 函数一些密码学性质进行了研究,以多输出函数的特征函数为工具,建立了多输出Plateaued
    发表于 11-17 13:51 18次下载

    Sigmoid函数的拟合法分析及其高效处理

    使用分段非线性逼近算法计算超越函数,以神经网络中应用最为广泛的Sigmoid函数为例,结合函数自身对称的性质及其导数不均匀的特点提出合理的分
    发表于 11-15 13:15 1.1w次阅读
    <b class='flag-5'>Sigmoid</b><b class='flag-5'>函数</b>的拟合法分析及其高效处理

    基于神经网络的激活函数和相应的数学介绍

    希望你理解了激活函数背后的思想,为什么要使用激活函数,以及如何选用激活函数
    的头像 发表于 01-10 11:53 6065次阅读
    基于神经网络的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>和相应的数学介绍

    ReLU到Sinc的26种神经网络激活函数可视化大盘点

    本文介绍了26个激活函数的图示及其一阶导数,在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活
    发表于 01-11 17:42 3.1w次阅读
    <b class='flag-5'>ReLU</b>到Sinc的26种神经网络<b class='flag-5'>激活</b><b class='flag-5'>函数</b>可视化大盘点

    13种神经网络激活函数

    ReLU(Rectified Linear Unit,修正线性单元)训练速度比tanh快6倍。当输入值小于零时,输出值为零。当输入值大于等于零时,输出值等于输入值。当输入值为正数时,导数为1,因此不会出现sigmoid函数反向传
    的头像 发表于 05-16 11:18 3.2w次阅读
    13种神经网络<b class='flag-5'>激活</b><b class='flag-5'>函数</b>

    图文详解:神经网络的激活函数

    什么是神经网络激活函数激活函数有助于决定我们是否需要激活神经元。如果我们需要发射一个神经元那么信号的强度是多少。
    的头像 发表于 07-05 11:21 3425次阅读
    图文详解:神经网络的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>

    详解十种激活函数的优缺点

    激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于人类大脑中基于神经元的模型,激活
    的头像 发表于 03-05 16:15 1.3w次阅读
    详解十种<b class='flag-5'>激活</b><b class='flag-5'>函数</b>的优缺点

    PyTorch已为我们实现了大多数常用的非线性激活函数

    PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活
    的头像 发表于 07-06 14:47 741次阅读

    在PyTorch中使用ReLU激活函数的例子

    PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活
    的头像 发表于 07-06 15:27 2202次阅读

    Relu算子的介绍

    Relu是一种非线性激活函数,它的特点有运算简单,不会在梯度处出现梯度消失的情况,而且它在一定程度上能够防止深度学习模型在训练中发生的过拟合现象。
    的头像 发表于 01-11 17:07 1031次阅读

    解析激活函数作用

    激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。 下面我分别从这个方面通过例子给出自己的理解~
    的头像 发表于 02-17 15:46 806次阅读
    解析<b class='flag-5'>激活</b><b class='flag-5'>函数</b>作用

    Dynamic ReLU:根据输入动态确定的ReLU

    这是我最近才看到的一篇论文,它提出了动态ReLU (Dynamic ReLU, DY-ReLU),可以将全局上下文编码为超函数,并相应地调整分段线性
    的头像 发表于 09-01 17:28 462次阅读
    Dynamic <b class='flag-5'>ReLU</b>:根据输入动态确定的<b class='flag-5'>ReLU</b>