三层神经网络的反向查询

Posted bestexpert

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了三层神经网络的反向查询相关的知识,希望对你有一定的参考价值。

前面讲的都是前向传播,已知输入层数据,计算出输出层结果。如果我们已知输出层结果是否可以反向推理出图片的像素值呢。在前面的神经网络基础上面进行修改。

1.训练

训练神经网络和前面讲的一样。

2.定义反向查询函数

1.>定义反向激活函数。利用logit函数

self.inverse_activation_function = lambda x: spc.logit(x)

2.>利用已知结果得到激活之前的输出值,在通过矩阵点乘得到激活之后的隐藏层的值,在通过反向激活函数得到激活之前的隐藏层值,在通过矩阵点乘得到输入值。逻辑和前向传播逻辑相反。

final_output = np.array(target_list, ndmin=2).T
final_input = self.inverse_activation_function(final_output)
hidden_output = np.dot(self.who.T, final_input)
hidden_output -= np.min(hidden_output)
hidden_output /= np.max(hidden_output)
hidden_output *= 0.98
hidden_output += 0.01
hidden_input = self.inverse_activation_function(hidden_output)
inputs = np.dot(self.wih.T, hidden_input)
inputs -= np.min(inputs)
inputs /= np.max(inputs)
inputs *= 0.98
inputs += 0.01

中间有调整点乘之后的矩阵值大小,使其在0.01到1.0之间

3.测试

定义已知结果。输出层为10个节点,默认值为0.01。当已知输入节点为0时,输出层的第1个节点的输出值为0.99

for i in range(10):
target = np.zeros(10) + 0.01
target[i] = 0.99
inputs = mnist.backquery(target)

用图形化显示得到的输入层节点的值

plt.imshow(inputs.reshape(28, 28), cmap=‘Greys‘, interpolation=‘None‘)
plt.show()

技术图片

 


上面的图形化显示的值不太清晰,所以我们可以在用前向传播测试下得到的输入值。

mnist.train2(inputs, target)
final = mnist.query2(inputs)
label = np.argmax(final)
if label == i:
print("i is:", i, "success")
else:
print("i is:", i, "label is:", label, "fail")

输出结果显示如下:

技术图片

 

可以看到成功率大概在70%

上面代码的地址为:https://github.com/pythonAndAI/nerve-net/blob/master/com/test/otherExercises/backquery.py























以上是关于三层神经网络的反向查询的主要内容,如果未能解决你的问题,请参考以下文章

解读反向传播算法(BackPropagation)

没错,纯SQL查询语句可以实现神经网络

第二节,神经网络中反向传播四个基本公式证明——BackPropagation

神经网路 反向传播直观理解

深度学习:神经网络中的前向传播和反向传播算法推导

如何使用片段反向移植?