ReLu(Rectified Linear Units)激活函数

Posted 1357

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ReLu(Rectified Linear Units)激活函数相关的知识,希望对你有一定的参考价值。

 

 

传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。

从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。

从神经科学上来看,中央区酷似神经元的兴奋态,两侧区酷似神经元的抑制态,因而在神经网络学习方面,可以将重点特征推向中央区,将非重点特征推向两侧区。

无论是哪种解释,看起来都比早期的线性激活函数(y=x),阶跃激活函数(-1/1,0/1)高明了不少。

以上是关于ReLu(Rectified Linear Units)激活函数的主要内容,如果未能解决你的问题,请参考以下文章

ReLu(Rectified Linear Units)激活函数

日常手写卷积神经网络(conv+relu+maxpooling+linear+relu+linear+softmax+交叉熵损失+正则)

alpha前后端接口文档

激活函数——Relu,Swish

[激活函数]啥是 ReLU

如何在 Pytorch 的“nn.Sequential”中展平输入