Dense 层上的 Dropout

Posted

技术标签:

【中文标题】Dense 层上的 Dropout【英文标题】:Dropout on a Dense layer 【发布时间】:2022-01-10 16:43:52 【问题描述】:

在 Keras 中,当我们使用input_dim 参数定义我们的第一个隐藏层时,后跟一个 Dropout 层,如下所示:

model.add(Dense(units = 16, activation = 'relu', kernel_initializer = 'random_uniform', input_dim = 5))
model.add(Dropout(0.2))

Dropout 是应用于隐藏层还是输入层?如果它被应用于隐藏,我怎样才能应用于输入,反之亦然?

【问题讨论】:

【参考方案1】:

Dropout 应用于前一层的输出,因此在这种情况下应用于隐藏层。 如果要将其应用于输入,请添加一个 Dropout 层作为网络中的第一层。

【讨论】:

我明白了,这让我很困惑,因为在 Keras 文档中说“将 Dropout 应用于输入。” 我认为他们的意思是它会将 dropout 应用于它自己的输入,这通常是前一层的输出。

以上是关于Dense 层上的 Dropout的主要内容,如果未能解决你的问题,请参考以下文章

在 Keras 的卷积层上使用 Dropout

Socket层上的协议

圆形 GAGradient 层上的锯齿状边缘

两列上的 DENSE_RANK,其中一列是不同的值,另一列是重复的

将qgis上不同多边形层上的每个点元素分开

移动层上的 iOS CALayer.mask