深度学习笔记 稀疏编码

Posted 雪球球

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习笔记 稀疏编码相关的知识,希望对你有一定的参考价值。

如果隐藏节点比可视节点(输入、输出)少的话,由于被迫的降维,自编码器会自动习得训练样本的特征(变化最大,信息量最多的维度)。但是如果隐藏节点数目过多,甚至比可视节点数目还多的时候,自编码器不仅会丧失这种能力,更可能会习得一种“恒等函数”——直接把输入复制过去作为输出。这时候,我们需要对隐藏节点进行稀疏性限制。

所谓稀疏性,就是对一对输入图像,隐藏节点中被激活的节点数(输出接近1)远远小于被抑制的节点数目(输出接近0)。那么使得神经元大部分的时间都是被抑制的限制则被称作稀疏性限制。

其实就是限制每次得到的表达code尽量稀疏。因为稀疏的表达往往比其他的表达要有效(人脑好像也是这样的,某个输入只是刺激某些神经元,其他的大部分的神经元是受到抑制的)

以上是关于深度学习笔记 稀疏编码的主要内容,如果未能解决你的问题,请参考以下文章

[机器学习] UFLDL笔记 - Sparse Coding(稀疏编码)

深度学习笔记 栈式自编码器

学习笔记TF025:自编码器

深度学习笔记十二:自编码器AutoEncoder

深度学习笔记十二:自编码器AutoEncoder

深度学习系列36:交叉熵笔记