有没有办法在 Keras 的推理过程中激活 dropout,同时冻结批处理规范层

Posted

技术标签:

【中文标题】有没有办法在 Keras 的推理过程中激活 dropout,同时冻结批处理规范层【英文标题】:Is there a way to activate dropout during inference in Keras, while freezing batch norm layers 【发布时间】:2020-10-02 04:23:21 【问题描述】:

我正在尝试在我的模型中使用 dropout 层在推理时间来衡量模型的不确定性 如the method outlined by Yurin Gal中所述

这篇文章描述了一个解决方案: How to calculate prediction uncertainty using Keras?,定义了一个新的 Keras 函数 self.f = K.function([self.graph.layers[0].input, K.learning_phase()], [self.graph.layers[-1].output])

但是,如果使用的模型具有批量标准化层,则此方法不适用。因为这将使模型不使用在训练期间学习的均值和方差,而是根据当前批次设置新的。

因此,我正在寻找一种方法将批处理层训练参数设置为 false,但将 dropout 层保持在训练模式?

我使用 KerasefficientNet B0 作为模型,使用自定义数据训练 keras_efficientNet

我已经尝试自己更改图层设置

`
        for layer in self.graph.layers[4].layers:
            if 'batch_norm' in layer.name:
                layer._trainable = False
                layer._inbound_nodes[0].output_tensors[0]._uses_learning_phase = False
                layer._inbound_nodes[0].input_tensors[0]._uses_learning_phase = False
            if 'dropout' in layer.name:
                layer._inbound_nodes[0].output_tensors[0]._uses_learning_phase = True
            for weight in self.graph.layers[4].weights:
                if 'batch_norm' in weight.name:
                    weight._trainable = False`

然而,这些都不起作用。

【问题讨论】:

【参考方案1】:

这个问题重复了,这里已经回答了How to apply Monte Carlo Dropout, in tensorflow, for an LSTM if batch normalization is part of the model?

基本上,当您定义模型时,您应该将training=True 添加到您的 Dropout 层

inputs = tf.keras.Input(...) 
x = tf.keras.layers.___(...)(input)
...
x = tf.keras.layers.Dropout(...)(x, training=True)
...

在不能修改模型构造函数代码的情况下,可以这样修改 (不是我最喜欢的解决方案)[1]。

# load model
model_config = model.get_config()
layer_index = 3 # layer index you want to modify
model_config['layers'][layer_index]['inbound_nodes'][0][0][-1]['training'] = True
model = tf.keras.models.model_from_config(model_config)

【讨论】:

感谢您的快速回复。问题是我没有再次定义模型。我只是将它用于推理,不想再次训练它。我使用 keras.model 中的加载函数来加载已经训练好的 .h5 模型。以这种方式加载模型时,有没有办法更改模型的定义?【参考方案2】:

感谢@pedrolarben 的解决方案,它对我帮助很大,但不完整!

最终起作用的是以下

    model_config = self.graph.get_config()

    你需要直接改变层配置的inbound_nodes而不是inbound_nodes model_config['layers'][layer_index]['config']['layers'][index_of_dropout_layer]['inbound_nodes'][0][0][-1]['training'] = True

    重新加载模型:(如本答案The inverse of keras.models.Model.get_config() seems to be keras.models.Model.from_config(), not keras.models.model_from_config()所述):

model = Model.from_config(model_config)

    最后你需要再次加载权重,否则你的模型被随机初始化model.load_weights(self.graph_path)

注意:这适用于效率网络的 keras 实现。

【讨论】:

【参考方案3】:

您可以关注this link 创建自定义层,还有一个使用自定义 dropout 层的示例,这样您就可以在训练期间以及推理时间操纵训练值使 dropout 在推理时间运行

class CustomDropout(keras.layers.Layer):
def __init__(self, rate, **kwargs):
    super(CustomDropout, self).__init__(**kwargs)
    self.rate = rate

def call(self, inputs, training=None):
    if training: #you can remove this line,, so that you can use dropout on inference time
        return tf.nn.dropout(inputs, rate=self.rate)
    return inputs

【讨论】:

以上是关于有没有办法在 Keras 的推理过程中激活 dropout,同时冻结批处理规范层的主要内容,如果未能解决你的问题,请参考以下文章

如何在 Tensorflow 2.0 + Keras 中进行并行 GPU 推理?

具有推理功能的 TensorFlow + Keras 多 GPU 模型

使用 Keras 在 GPU 上进行推理

为啥 TF Keras 推理方式比 Numpy 操作慢?

model.predict 不适用于 Keras 自定义层(推理错误)

Keras 如何处理单元格和隐藏状态(RNN、LSTM)的初始值以进行推理?