Keras如何在Relu激活函数中使用max_value

Posted

技术标签:

【中文标题】Keras如何在Relu激活函数中使用max_value【英文标题】:Keras How to use max_value in Relu activation function 【发布时间】:2017-05-06 06:28:52 【问题描述】:

在 keras/activation.py 中定义的 Relu 函数是:

    def relu(x, alpha=0., max_value=None):
      return K.relu(x, alpha=alpha, max_value=max_value)

它有一个 max_value 可以用来裁剪值。现在如何在代码中使用/调用它? 我尝试了以下方法: (一)

    model.add(Dense(512,input_dim=1))
    model.add(Activation('relu',max_value=250))
    assert kwarg in allowed_kwargs, 'Keyword argument not understood: 
    ' + kwarg
    AssertionError: Keyword argument not understood: max_value

(b)

    Rel = Activation('relu',max_value=250)

同样的错误

(c)

    from keras.layers import activations
    uu = activations.relu(??,max_value=250)

这个问题是它期望输入出现在第一个值中。错误是'relu() 需要至少 1 个参数(1 个给定)'

那么我该如何做一个图层呢?

    model.add(activations.relu(max_value=250))

有同样的问题'relu() 需要至少 1 个参数(1 个给定)'

如果此文件不能用作图层,那么似乎无法为 Relu 指定剪辑值。这意味着 https://github.com/fchollet/keras/issues/2119 关闭提议的更改的评论是错误的...... 有什么想法吗?谢谢!

【问题讨论】:

【参考方案1】:

您可以使用 Keras 后端的 ReLU 功能。因此,首先导入后端:

from keras import backend as K

然后,您可以使用后端功能将自己的函数作为激活传递。 这看起来像

def relu_advanced(x):
    return K.relu(x, max_value=250)

那么你就可以像这样使用它了

model.add(Dense(512, input_dim=1, activation=relu_advanced))

model.add(Activation(relu_advanced))

不幸的是,您必须对附加参数进行硬编码。 因此,最好使用一个函数,它返回您的函数并传递您的自定义值:

def create_relu_advanced(max_value=1.):        
    def relu_advanced(x):
        return K.relu(x, max_value=K.cast_to_floatx(max_value))
    return relu_advanced

然后您可以通过任一方式传递您的参数

model.add(Dense(512, input_dim=1, activation=create_relu_advanced(max_value=250)))

model.add(Activation(create_relu_advanced(max_value=250)))

【讨论】:

如何加载模型? ...我似乎收到错误消息Value error: unknown activation function:relu_advanced @Smo 看看我的回答 - 它解决了阅读问题,如果它对你来说仍然很重要......【参考方案2】:

这是我使用Lambda 层实现剪辑relu 所做的: 第一步:定义一个函数来做reluclip:

def reluclip(x, max_value = 20):
    return K.relu(x, max_value = max_value)

第 2 步:将Lambda 层添加到模型中: y = Lambda(function = reluclip)(y)

【讨论】:

【参考方案3】:

这就像一个 lambda 一样简单:

from keras.activations import relu
clipped_relu = lambda x: relu(x, max_value=3.14)

然后像这样使用它:

model.add(Conv2D(64, (3, 3)))
model.add(Activation(clipped_relu))

读取保存在hdf5 中的模型时,使用custom_objects 字典:

model = load_model(model_file, custom_objects='<lambda>': clipped_relu)

【讨论】:

【参考方案4】:

在下面测试,它会工作:

import keras

def clip_relu (x): 
    return keras.activations.relu(x, max_value=1.)

predictions=Dense(num_classes,activation=clip_relu,name='output')

【讨论】:

以上是关于Keras如何在Relu激活函数中使用max_value的主要内容,如果未能解决你的问题,请参考以下文章

如何使用 Keras 创建自定义激活函数?

如何为层中的每个节点为 Keras relu 函数分配自定义 alpha?

Keras深度学习实战——深度学习中常用激活函数和损失函数详解

深度残差网络+自适应参数化ReLU激活函数(调参记录1)

深度残差网络+自适应参数化ReLU激活函数(调参记录8)

深度残差网络+自适应参数化ReLU激活函数(调参记录9)Cifar10~93.71%