神经网络反向传播算法(4,5)

Posted 郑哲

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了神经网络反向传播算法(4,5)相关的知识,希望对你有一定的参考价值。

“反向传播”是最小化成本函数的神经网络术语,就像我们在logistic回归和线性回归中的梯度下降一样。我们的目标是计算:

也就是说,我们希望在θ中使用一组最优参数来最小化我们的成本函数j。在这一节中我们将看看我们用来计算J(Θ)的偏导数方程:

为此,我们使用下面的算法:

 

反向传播算法实现:

1.得到训练集

2.设置所有i,j,l(因此你最终有一个矩阵全零)

3.遍历训练样本t = 1到m:

(1)

(2)进行正向传播计算a(j)  j从1到m;

(3)使用y(t),计算

其中L是我们的总层数,而a(l)是最后一层激活单元的输出向量。所以我们最后一层的“误差值”仅仅是我们最后一层的实际结果和y中的正确输出的差值:

(4)

 

计算出每一层的每个节点的误差

然后我们使用函数,称为G或G-Prime,这是激励函数g评价与输入值的Z(L)。

了G-Prime导数项也可以写出来:

 

(5)或用矢量化

因此我们更新我们的新Δ矩阵。

矩阵D作为一个“累加器”来增加我们的价值,因为我们去,并最终计算我们的偏导数。

以上是关于神经网络反向传播算法(4,5)的主要内容,如果未能解决你的问题,请参考以下文章

反向传播算法和生成对抗网络的区别

超重量级深层神经网络与优化算法

神经网络的反向传播算法—ML Note 52

怎样理解神经网络的反向传播算法-ML Note 53

如何理解神经网络里面的反向传播算法

读懂反向传播算法(bp算法)