一:输入层隐藏层输出层;二隐藏层的层数

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了一:输入层隐藏层输出层;二隐藏层的层数相关的知识,希望对你有一定的参考价值。



一:输入层、隐藏层、输出层

BP神经网络主要由输入层隐藏层输出层构成,输入和输出层的节点数是固定的,不论是回归还是分类任务,选择合适的层数以及隐藏层节点数,在很大程度上都会影响神经网络的性能。

一:输入层、隐藏层、输出层;二、隐藏层的层数_数据集


  • 没有隐藏层:仅能够表示线性可分函数或决策
  • 隐藏层数=1:可以拟合任何“包含从一个有限空间到另一个有限空间的连续映射”的函数
  • 隐藏层数=2:搭配适当的激活函数可以表示任意精度的任意决策边界,并且可以拟合任何精度的任何平滑映射
  • 隐藏层数>2:多出来的隐藏层可以学习复杂的描述(某种自动特征工程)

输入层和输出层的节点数量很容易得到。 输入层的神经元数量等于待处理数据中输入变量的数量,输出层的神经元的数量等于与每个输入关联的输出的数量。但是真正的困难之处在于确定合适的隐藏层及其神经元的数量

二、隐藏层的层数

概括来说就是多个隐藏层可以用于拟合非线性函数。

因此,对于一般简单的数据集,一两层隐藏层通常就足够了。但对于涉及时间序列或计算机视觉的复杂数据集,则需要额外增加层数。单层神经网络只能用于表示线性分离函数,也就是非常简单的问题,比如分类问题中的两个类可以用一条直线整齐地分开。

层数越深,理论上拟合函数的能力增强,效果按理说会更好,但是实际上更深的层数可能会带来过拟合的问题,同时也会增加训练难度,使模型难以收敛

因此我的经验是,在使用BP神经网络时,最好可以参照已有的表现优异的模型,如果实在没有,则根据上面的表格,从一两层开始尝试,尽量不要使用太多的层数。

在CV、NLP等特殊领域,可以使用CNN、RNN、attention等特殊模型,不能不考虑实际而直接无脑堆砌多层神经网络。尝试迁移和微调已有的预训练模型,能取得事半功倍的效果

一:输入层、隐藏层、输出层;二、隐藏层的层数_拟合_02



以上是关于一:输入层隐藏层输出层;二隐藏层的层数的主要内容,如果未能解决你的问题,请参考以下文章

vgg16 是哪16层,如何确定神经网络的层数和隐藏层神经元数量,CNN,AlexNetVGGNetGoogleNetResNet

神经网络中如何确定隐藏层的层数和大小

深度学习与神经网络

《Andrew Ng深度学习》笔记3

BP神经网络—java实现

出现梯度消失和梯度爆炸的原因及解决方案