[BPnet识别MNIST06]发散的误差函数
Posted AIplusX
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[BPnet识别MNIST06]发散的误差函数相关的知识,希望对你有一定的参考价值。
写在前面
很遗憾,今天并没有取得什么实质性的进展,并且我还切实的感受到了误差函数发散的快感,今天这篇文章主要分享我的实现代码思路以及往期博客的一些纠正。
正文
主要内容在我的古月居博客:
[BPnet识别MNIST06]发散的误差函数
公式纠正
首先是对我上一篇博客中一个错误公式的纠正,错误公式如下图所示:
可以很明显的看到公式中出现了2个i的变量,昨天晚上脑子晕了,今天才发现,正确的公式应该如下图所示:
发散的误差函数
我的误差函数是均方根值:
我在程序里面的实现如下图所示:
det_Ek_v[i] = pow((y_out - y), 2) * 0.5
def ReLU(x):
# s = 1 / (1 + np.exp(-x))
if x > 0 :
s = x
else:
s = 0
return s
def ReLUDerivative(x):
# ds = ReLU(x) * (1 - ReLU(x))
if x > 0 :
ds = 1
else:
ds = 0
return ds
神经网络最重要的梯度数学公式我昨天已经给出了,今天做了python的实现。
for i in range(0, 4):
for j in range(0, 4):
v[i][j] = (y_out - y) * (y_out * (1 - y_out)) * (n[j][0] * (1 - n[j][0])) * \\
gamma[j][0] * m[i][0]
w[i][0] = (y_out - y) * (y_out * (1 - y_out)) * gamma[j][0] * \\
(n[i][0] * (1 - n[i][0])) * v[i][i] * (m[i][0] * (1 - m[i][0])) * x_sum + w[i][0]
theta_2[i][0] = -1 * (y_out - y) * (y_out * (1 - y_out)) * gamma[i][0] * \\
(n[i][0] * (1 - n[i][0]))
theta_1[i][0] = -1 * (y_out - y) * (y_out * (1 - y_out)) * gamma[j][0] * \\
(n[j][0] * (1 - n[j][0])) * v[i][j] * (m[i][0] * (1 - m[i][0])) + theta_1[i][0]
gamma[i][0] = (y_out - y) * (y_out * (1 - y_out)) * n[i][0]
theta_3 = -1 * (y_out - y) * (y_out * (1 - y_out))
for i in range(0, 4):
for j in range(0, 4):
v[i][j] = v[i][j] - study_step * v[i][j]
w[i][0] = w[i][0] - study_step * w[i][0]
theta_2[i][0] = w[i][0] - study_step * theta_2[i][0]
theta_1[i][0] = theta_1[i][0] - study_step * theta_1[i][0]
gamma[i][0] = gamma[i][0] - study_step * gamma[i][0]
theta_3 = theta_3 - study_step * theta_3
for i in range(0,4):#[1,4]
for j in range(0,784):
m[i][j] = x[j] * w[i][0] - theta_1[i];
m[i][j] = ReLU(m[i][j])
# print(m)
for i in range(0,4):#[1,4]
for j in range(0,784):
n[i][j] = m[0][j] * v[0][i] + m[1][j] * v[1][i] + m[2][j] * v[2][i] + \\
m[3][j] * v[3][i] - theta_1[i];
n[i][j] = ReLU(n[i][j])
# print(n)
for i in range(0, 784):
y_arr[0][i] = n[0][i] * gamma[0][0] + n[1][i] * gamma[1][0] + n[2][i] * gamma[2][0] +\\
n[3][i] * gamma[3][0] - theta_3;
y_arr[0][i] = ReLU(y_arr[0][i])
正文
主要内容在我的古月居博客:
[BPnet识别MNIST06]发散的误差函数
明天回来继续调,冲了!
以上是关于[BPnet识别MNIST06]发散的误差函数的主要内容,如果未能解决你的问题,请参考以下文章
[BPnet识别MNIST03]MNIST数据降维以及神经网络建立