Keras官方中文文档:激活函数Activation

Posted 5rjscn

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Keras官方中文文档:激活函数Activation相关的知识,希望对你有一定的参考价值。

激活函数Activations

激活函数可以通过设置单独的激活层实现,也可以在构造层对象时通过传递activation参数实现。

from keras.layers import Activation, Dense

model.add(Dense(64))
model.add(Activation(‘tanh‘))

等价于

model.add(Dense(64, activation=‘tanh‘))

也可以通过传递一个逐元素运算的Theano/TensorFlow/CNTK函数来作为激活函数:

from keras import backend as K

def tanh(x):
    return K.tanh(x)

model.add(Dense(64, activation=tanh))
model.add(Activation(tanh))

预定义激活函数

  • softmax:对输入数据的最后一维进行softmax,输入数据应形如(nb_samples, nb_timesteps, nb_dims)(nb_samples,nb_dims)

  • elu

  • selu: 可伸缩的指数线性单元(Scaled Exponential Linear Unit),参考Self-Normalizing Neural Networks

  • softplus

  • softsign

  • relu

  • tanh

  • sigmoid

  • hard_sigmoid

  • linear

高级激活函数

对于简单的Theano/TensorFlow/CNTK不能表达的复杂激活函数,如含有可学习参数的激活函数,可通过高级激活函数实现,如PReLU,LeakyReLU等

艾伯特(http://www.aibbt.com/)国内第一家人工智能门户

以上是关于Keras官方中文文档:激活函数Activation的主要内容,如果未能解决你的问题,请参考以下文章

Keras官方中文文档:融合层Merge

Keras 二元分类 - Sigmoid 激活函数

如何使用 Keras 创建自定义激活函数?

Keras官方中文文档:图片预处理

最适合初学者的深度学习框架 -- Keras官方中文版文档正式发布

如何在一个 Keras 层中使用不同的激活函数?