为啥在无监督学习中不使用 DropOut?

Posted

技术标签:

【中文标题】为啥在无监督学习中不使用 DropOut?【英文标题】:Why isn't DropOut used in Unsupervised Learning?为什么在无监督学习中不使用 DropOut? 【发布时间】:2013-11-09 02:27:38 【问题描述】:

所有或几乎所有使用 dropout 的论文都将其用于监督学习。似乎它可以很容易地用于规范深度自动编码器、RBM 和 DBN。那么为什么在无监督学习中不使用 dropout 呢?

【问题讨论】:

看去噪自编码器,添加随机噪声类似于dropout。 是的,这完全一样。他们随机选择输入并将其设置为 0。请参阅:deeplearning.net/tutorial/dA.html 我也有同样的问题。我认为去噪 AE 只在输入层应用 dropout。我的问题是为什么不将 dropout 应用于隐藏层以防止过度拟合? 【参考方案1】:

Dropout 用于无监督学习。例如:

翟双飞、张中飞:矩阵分解和自动编码器的 Dropout 训练用于稀疏图中的链接预测(arxiv,2015 年 12 月 14 日)

【讨论】:

【参考方案2】:

带标签的数据相对稀缺,这就是为什么监督学习通常受益于强大的正则化,例如 DropOut。

另一方面,未标记的数据通常很丰富,这就是通常不需要 DropOut 的原因,并且可能是有害的(因为它会降低模型容量)。

即使是像 GPT-3(175e9 参数)这样的巨大模型在更新 300e9 令牌后仍然欠拟合。

【讨论】:

以上是关于为啥在无监督学习中不使用 DropOut?的主要内容,如果未能解决你的问题,请参考以下文章

无监督学习之RBM和AutoEncoder

无监督学习之RBM和AutoEncoder

《Python机器学习及实践》----无监督学习之数据聚类

《Python机器学习及实践》----无监督学习之数据聚类

《Python机器学习及实践》----无监督学习之特征降维

《Python机器学习及实践》----无监督学习之特征降维