神经网络激活函数
Posted 劳埃德·福杰
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了神经网络激活函数相关的知识,希望对你有一定的参考价值。
1.双层神经网络
![](https://image.cha138.com/20230112/3a6178b56d4c49b59898423641dca455.jpg)
计算神经网络层数的时候不包括输入层。
2.逻辑回归的神经网络如何实现
隐藏单元如何计算?
![](https://image.cha138.com/20230112/33ddfbe3fe5547a69095fa930e4f81df.jpg)
![](https://image.cha138.com/20230112/c5202f9409a942bb93207290c8a46df1.jpg)
![](https://image.cha138.com/20230112/0cb8d0f467e0490584e20586f5d20b39.jpg)
,3x1矩阵
,3x1矩阵,上标[1]表示第一层
向量化(单个训练样本):
隐藏层:,
,
为4x3矩阵,x为3x1矩阵,
为4x1矩阵,
为4x1矩阵
输出层:,
,
为1x4矩阵,
为4x1矩阵,
为1x1矩阵,
为1x1矩阵
向量化(m个训练样本,n个输入特征,隐藏层有k个神经元):
,
,
,
为kxn矩阵,X为nxm矩阵,
为kxm矩阵,
为kxm矩阵...
3.激活函数
①sigmoid函数
![](https://image.cha138.com/20230112/b67a13db9432441582cf50a5a0fe13d6.jpg)
一般只在二元分类的输出层会用到,因为它值域为[0,1],预测某个物体的概率的取值范围也是[0,1]
②tanh函数
![](https://image.cha138.com/20230112/c6d0c2c742e04e1287d2a497ab6d3813.jpg)
,值域为[-1,1]
③Relu(Rectified linear unit修正线性单元)
![](https://image.cha138.com/20230112/298d7a1b3f0b43e8b247ae62aa3cab0f.jpg)
sigmoid函数和tanh函数的缺点在于:当z很大或很小时,导数的梯度(函数的斜率)接近0,会拖慢梯度下降算法。通常隐藏层的激活函数都用Relu,Relu的缺点是z<0时,导数为0。
④leak Relu(带泄露的Relu)
![](https://image.cha138.com/20230112/4a01e0d3377140e0b958ca71939ef94f.jpg)
比Relu更好,但是不常用。
以上是关于神经网络激活函数的主要内容,如果未能解决你的问题,请参考以下文章
使用神经网络做二分类,输出层需要几个神经元?应该选择哪一种激活函数?如果要处理minst数据输出层需要几个神经元?使用那种激活函数?如果使用神经网络预测房价,输出层需要几个神经元使用什么激活函数?