深度学习课程笔记神经网络基础

Posted 7TribeZ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习课程笔记神经网络基础相关的知识,希望对你有一定的参考价值。

目录

 

 激活函数

单层感知器

多层感知器

梯度下降,BP算法

梯度消失

逐层预训练

自编码器

受限玻尔兹曼机RBM

深度置信网络DBN,深度玻尔兹曼机DBM

一般玻尔兹曼机BM

解决梯度消失时间轴

思考

下节预告


 激活函数

 

单层感知器

多层感知器

接下来解决非线性,如异或(单层感知机解决不了)

解决同或 非线性问题

梯度下降,BP算法

sigmoid函数梯度消失问题

 

左图为凸函数可以找到全局的一个极值点,而右图是非凸函数,非常依赖初始值的选取,而决定是否找到全局的极值点。

 

梯度消失

由于 sigmoid 激活函数  的梯度容易落到饱和区,即趋向于0,在反向传播时,前面的节点由于计算梯度时,这个激活函数的导数趋向于0,导致梯度消失,而导致可能只能更新后面几层的参数,无法更新前面的节点。导致神经网络无法通过反向传播,梯度下降方法来更新参数。

 

 

逐层预训练

层数越高局部极小值最多,容易落到差的局部极小值。

预训练使得找到很好的初始值的参数。

经过逐层预训练,解会相对收敛,不容易落到很差的点里。 二是训练会更快。(有一个保证,初始就不会太差)

逐层预训练难点在于中间可能有很多隐层学习第一个隐层h1时是看不到y的,学习h5时才能看到y。即学习中间的隐层时,只有输入x,没有监督信息的。

两种方式 解决。

自编码器

中间的编码就是想要学习的特征

 

受限玻尔兹曼机RBM

 

深度置信网络DBN,深度玻尔兹曼机DBM

 

一般玻尔兹曼机BM

逐层预训练已经成为历史了

只是让初始值还不错,并没有根本解决梯度消失问题

 

解决梯度消失时间轴

 

思考

 

 

下节预告

 

以上是关于深度学习课程笔记神经网络基础的主要内容,如果未能解决你的问题,请参考以下文章

卷积神经网络笔记--吴恩达深度学习课程笔记

卷积神经网络笔记--吴恩达深度学习课程笔记

最为详细的卷积神经网络笔记--吴恩达深度学习课程笔记

深度学习课程笔记神经网络基础

最为详细的卷积神经网络笔记--吴恩达深度学习课程笔记

最为详细的卷积神经网络笔记--吴恩达深度学习课程笔记