[BPnet识别MNIST05]神经网络梯度下降公式分析

Posted AIplusX

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[BPnet识别MNIST05]神经网络梯度下降公式分析相关的知识,希望对你有一定的参考价值。

写在前面

我终于把神经网络的梯度下降公式推导完毕了!先看看为了伟大工程牺牲的草稿纸吧~

接下来我就分享出我推导的公式以及我总结出来的规律。

正文

主要内容在我的古月居博客:
[BPnet识别MNIST05]神经网络梯度下降公式分析

梯度下降

神经网络如图所示:

公式分析

各个神经元的输入输出关系我已经在上一篇博客中给出了,这里再集中给出一下:

latex源码:

	\\\\
		$
		\\frac{\\partial E_{k}}{\\partial \\nu{ij}} = (\\hat{y}_{1} - y)*[\\hat{y}_{1}*(1-\\hat{y}_{1})]*
		[\\hat{n}_{j}*(1-\\hat{n}_{j})]*\\gamma_{j}*\\hat{m}_{i}
		$	
	\\\\
	\\\\
			$
		\\frac{\\partial E_{k}}{\\partial \\gamma{i}} = (\\hat{y}_{1} - y)*[\\hat{y}_{1}*(1-\\hat{y}_{1})]*\\hat{n}_{i}
		$	
	\\\\
		\\\\
		$
		\\frac{\\partial E_{k}}{\\partial \\omega{i}} = \\sum_{i=1}^{4} (\\hat{y}_{1} - y)*[\\hat{y}_{1} * (1-\\hat{y}_{1})] *[\\hat{n}_{i}*(1-\\hat{n}_{i})]*\\gamma_{i} * [\\hat{m}_{i}*(1-\\hat{m}_{i})] * \\nu_{ii} * x_{1}
		$	
	\\\\
		\\\\
	$
		\\frac{\\partial E_{k}}{\\partial \\theta{1i}} = \\sum_{j=1}^{4} (-1) * (\\hat{y}_{1} - y)*[\\hat{y}_{1} * (1-\\hat{y}_{1})] *[\\hat{n}_{j}*(1-\\hat{n}_{j})]*\\gamma_{j} * [\\hat{m}_{i}*(1-\\hat{m}_{i})] * \\nu_{ij} 
		$	
	\\\\
		\\\\
	$
		\\frac{\\partial E_{k}}{\\partial \\theta{2i}} = (-1)*(\\hat{y}_{1} - y)*[\\hat{y}_{1}*(1-\\hat{y}_{1})]*
		[\\hat{n}_{i}*(1-\\hat{n}_{i})]*\\gamma_{i}
	$	
	\\\\
		\\\\
	$
	\\frac{\\partial E_{k}}{\\partial \\theta{3}} = (-1) * (\\hat{y}_{1} - y)*[\\hat{y}_{1}*(1-\\hat{y}_{1})]
	$	
	\\\\

正文

主要内容在我的古月居博客:
[BPnet识别MNIST05]神经网络梯度下降公式分析

以上是关于[BPnet识别MNIST05]神经网络梯度下降公式分析的主要内容,如果未能解决你的问题,请参考以下文章

[BPnet识别MNIST07]神经网络的实现以及调优

[BPnet识别MNIST03]MNIST数据降维以及神经网络建立

[BPnet识别MNIST09]神经网络的调试

[BPnet识别MNIST08]神经网络参数初始值对于模型结果的影响

[BPnet识别MNIST01]利用conda建立python工程

梯度下降算法在mnist手写数字识别中的比较