TensorFlow MNIST 评估预测
Posted
技术标签:
【中文标题】TensorFlow MNIST 评估预测【英文标题】:Tensor Flow MNIST Evaluating predictions 【发布时间】:2017-06-16 02:17:41 【问题描述】:我正在处理这个tutorial,我在以下代码中发现:在评估预测时,他运行准确度,该变量运行正确的变量,该变量又运行预测,这将再次用随机数重新初始化权重并重建 NN 模型。这是怎么回事?我错过了什么?
def neural_network_model(data):
hidden_1_layer = 'weights':tf.Variable(tf.random_normal([784, n_nodes_hl1])),
'biases':tf.Variable(tf.random_normal([n_nodes_hl1]))
hidden_2_layer = 'weights':tf.Variable(tf.random_normal([n_nodes_hl1, n_nodes_hl2])),
'biases':tf.Variable(tf.random_normal([n_nodes_hl2]))
hidden_3_layer = 'weights':tf.Variable(tf.random_normal([n_nodes_hl2, n_nodes_hl3])),
'biases':tf.Variable(tf.random_normal([n_nodes_hl3]))
output_layer = 'weights':tf.Variable(tf.random_normal([n_nodes_hl3, n_classes])),
'biases':tf.Variable(tf.random_normal([n_classes])),
l1 = tf.add(tf.matmul(data,hidden_1_layer['weights']), hidden_1_layer['biases'])
l1 = tf.nn.relu(l1)
l2 = tf.add(tf.matmul(l1,hidden_2_layer['weights']), hidden_2_layer['biases'])
l2 = tf.nn.relu(l2)
l3 = tf.add(tf.matmul(l2,hidden_3_layer['weights']), hidden_3_layer['biases'])
l3 = tf.nn.relu(l3)
output = tf.matmul(l3,output_layer['weights']) + output_layer['biases']
return output
def train_neural_network(x):
prediction = neural_network_model(x)
cost = tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits(prediction,y) )
optimizer = tf.train.AdamOptimizer().minimize(cost)
hm_epochs = 10
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for epoch in range(hm_epochs):
epoch_loss = 0
for _ in range(int(mnist.train.num_examples/batch_size)):
epoch_x, epoch_y = mnist.train.next_batch(batch_size)
_, c = sess.run([optimizer, cost], feed_dict=x: epoch_x, y: epoch_y)
epoch_loss += c
print('Epoch', epoch, 'completed out of',hm_epochs,'loss:',epoch_loss)
correct = tf.equal(tf.argmax(prediction, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct, 'float'))
print('Accuracy:',accuracy.eval(x:mnist.test.images, y:mnist.test.labels))
train_neural_network(x)
【问题讨论】:
【参考方案1】:你几乎猜对了。 accuracy
张量间接依赖于 prediction
张量,后者依赖于张量 x
。在您的代码 sn-p 中,您没有包含 x
实际上是什么;但是来自链接的教程:
x = tf.placeholder('float', [None, 784])
y = tf.placeholder('float')
所以x
是一个占位符,即直接从用户那里获取其值的张量。从最后一行看不完全清楚
train_neural_network(x)
他实际上并没有调用转换函数train_neural_network(x)
,它接受x
并动态处理它,就像您对常规函数所期望的那样;相反,该函数使用对先前定义的占位符变量(实际上是虚拟变量)的引用来定义计算图,然后使用会话直接执行。
然而,该图仅使用neural_network_model(x)
构建一次,然后查询给定数量的时期。
你错过的是:
_, c = sess.run([optimizer, cost], feed_dict=x: epoch_x, y: epoch_y)
这会查询optimizer
操作和cost
张量的结果,假设输入值为epoch_x
对应x
和epoch_y
对应y
,通过所有定义的计算节点拉取数据,所有返回“向下”到x
的方式。为了获得cost
,还需要y
。两者都由调用者提供。 AdamOptimizer
将在其执行过程中更新所有可训练变量,从而改变网络的权重。
之后,
accuracy.eval(x: mnist.test.images, y: mnist.test.labels)
或者,等价
sess.run(accuracy, feed_dict=x: mnist.test.images, y: mnist.test.labels)
然后对 same 图发出另一次评估 - 不更改它 - 但这次使用输入 mnist.test.images
表示 x
和 mnist.test.labels
表示 y
。
它之所以有效是因为prediction
本身依赖于x
,在每次调用sess.run(...)
时,它都会被用户提供的值覆盖。
这是图表在 TensorBoard 中的样子。很难说,但两个占位符节点位于左下角,靠近名为“Variable”的橙色节点,位于右中,位于绿色“Slice_1”下方。
网络图的相关部分如下所示;我使用 TensorBoard 导出了这个。由于没有手动标记节点,因此有点难以获得(除了我自己标记的一对),但这里有六个相关点。占位符是黄色的:在右下角,您会发现 x
和 y
在左中角。
绿色是对我们有意义的中间值:左侧是 prediction
张量,右侧是名为 correct
的张量。蓝色部分是图表的端点:左上角是cost
张量,右上角是accuracy
。本质上,数据从底部流向顶部。
所以,每当您说“根据x
评估prediction
”、“根据x
和y
评估accuracy
”或“根据x
和y
优化我的网络”,你真的只需在黄色端提供值并观察绿色或蓝色端的结果。
【讨论】:
我想我没听懂,你说对同一个图的另一个评估,如何在预测再次调用神经网络模型时不改变它,在重建图时必须调用一次,因为我知道只能调用的计算线,这就是你的意思吗? 我知道他在输入X时改变了X,但他也改变了隐藏层的权重并再次随机化,他真的这样做了吗? 可以这样想:网络图是由neural_network_model(x)
定义的。该函数返回对张量prediction
的引用,该张量以某种方式依赖于x
;它没有做任何事情,除了定义网络的样子。一旦您使用sess.run()
(或.evaluate
)评估张量,该图就会在 CPU 或 GPU 上实例化、固定。在那之后,基本上唯一改变任何东西的是优化器,在这种情况下是AdamOptimizer
。其他一切都只是获取网络生成的结果如果您将其提供给x
和y
。这有帮助吗?
隐藏层的权重和偏差在教程中通过tf.Variable
定义。变量 - 与占位符和常量相反 - 被隐式标记为“可训练”,也就是说,只要调用优化器的 .minimize()
操作,它们就会自动调整。
好的,但是当他再次调用具有隐藏层线的构造网络时,这不会再次将它们随机化吗?你的意思是优化器只能在图形构建后改变它们,不管他是否调用这个函数?以上是关于TensorFlow MNIST 评估预测的主要内容,如果未能解决你的问题,请参考以下文章
TensorFlow MNIST 初学者需要一些了解评估步骤
在 MNIST 集上使用 TensorFlow 进行预测的困境
Tensorflow的官方MNIST模型具有较高的训练精度,但预测性能较低
吴裕雄 python 神经网络——TensorFlow实现回归模型训练预测MNIST手写数据集