非线性激活

Posted cold-city

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了非线性激活相关的知识,希望对你有一定的参考价值。

1.非线性激活的重要性

如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加如飞西安新处理,那么最终得到的仍然是线性函数。

技术图片

技术图片

2.常用的非线性激活函数

技术图片

ReLu的优点

  • 运算非常简单快速
  • 由于当输入大于0时,导数永远是1,可以避免梯度消失
  • 当输入大于零时才有非零输出,而输入小于0时,输出0.更类似与生物神经元的工作原理,需要刺激才会被激活。
  • 往往能带来比使用sigmoid和tanh更佳网络性能

3.ReLu的改进

Leaky ReLu,PReLu,RReLu,ELU,SELU.

他们让ReLu在输入小于0时有少量输出,可略微改进性能,代价是速度会慢一些。

4.Swish激活函数

$f(x)=xcdotsigma(etax)$,其中$eta$可固定为1。

在MXnet的使用。

tmp=mx.sym.sigmoid(in)
out=mx.sym.broadcast_mul(in,tmp)#将它点对点乘以输入,得到输出

以上是关于非线性激活的主要内容,如果未能解决你的问题,请参考以下文章

Activation Functions:激活函数

激活函数总结

常用激活函数比较

常见的激活函数

激活函数

激活函数总结