基于MNIST手写数字数据集的数字识别小程序
Posted 星辰戟
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于MNIST手写数字数据集的数字识别小程序相关的知识,希望对你有一定的参考价值。
30行代码奉上!(MNIST手写数字的识别,识别率大约在91%,简单尝试的一个程序,小玩具而已)
1 import tensorflow.examples.tutorials.mnist.input_data as input_data 2 import tensorflow as tf 3 mnist = input_data.read_data_sets(\'/temp/\', one_hot=True) 4 5 #设置 6 x = tf.placeholder(tf.float32,[None,784]) 7 W = tf.Variable(tf.zeros([784,10])) 8 b = tf.Variable(tf.zeros([10])) 9 #预测值 10 y = tf.nn.softmax(tf.matmul(x,W)+b) 11 #真值 12 y_ = tf.placeholder(tf.float32,[None,10]) 13 #交叉熵 14 cross_entropy = -tf.reduce_sum(y_*tf.log(y)) 15 16 #使用优化器 17 train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) 18 #初始化变量 19 init = tf.initialize_all_variables() 20 #创建对话 21 sess = tf.Session() 22 sess.run(init) 23 24 25 for i in range(1000): 26 batch_xs,batch_ys = mnist.train.next_batch(100) 27 sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys}) 28 29 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 30 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) 31 print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
1 import tensorflow.examples.tutorials.mnist.input_data as input_data 2 import tensorflow as tf 3 mnist = input_data.read_data_sets(\'/temp/\', one_hot=True)
1~3行,主要的工作是引入tensorflow模块,并且下载MNIST数据集,这是tensorflow自带的下载器,可以自动下载数据集,我们主要重心不在这,所以就这样简单代过。
#设置 6 x = tf.placeholder(tf.float32,[None,784]) 7 W = tf.Variable(tf.zeros([784,10])) 8 b = tf.Variable(tf.zeros([10])) 9 #预测值 10 y = tf.nn.softmax(tf.matmul(x,W)+b) 11 #真值 12 y_ = tf.placeholder(tf.float32,[None,10])
6~12行
首先是设置输入输出,还有精确值作为学习目标,此外还有权重和偏置,就这样构建一个计算图,图的样子大概是这样的:
其中x作为输入是一个1x768的向量,然后就是经过权重和偏食,就得到10个输出,然后用softmax()进行预测值的输出。
此外y_作为真值,要用到一个占位符。
主要用到的tensorflow的函数有
tf.placeholder 设置一个占位符,用于设置输入
tf.Variable 设置一个变量,用于设置权重和偏置
tf.nn.softmax softmax回归函数
tf.matmul 实现矩阵相乘
13 #交叉熵
14 cross_entropy = -tf.reduce_sum(y_*tf.log(y))
15
16 #使用优化器
17 train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
18 #初始化变量
19 init = tf.initialize_all_variables()
20 #创建对话
21 sess = tf.Session()
22 sess.run(init)
使用交叉熵作为误差评判标准,并以此来实现随机梯度下降。交叉熵函数公式如下:
这里使用了tensorflow的函数:
tf.reduce_sum 求和
tf.log 求对数
17行就是创建一个优化器,使用随机梯度下降的方法并根据交叉熵进行网络权重和偏置的优化训练。这里使用的参数是学习率,设为0.01。
tensorflow函数:
tf.train.GradientDescentOptimizer(learnrate) 创建一个优化器对象,使用的是随机梯度下降的方法,参数可以设置学习率
tf.train.GradientDescentOptimizer对象的minimize()方法 指定损失函数才能进行优化
19~22行是前面设置的变量的初始化工作,这里需要创建一个Session对话,tensorflow所有运算操作都是需要Session对话来进行的,此外还需要
对所有变量初始化。
tensorflow函数:
tf.initialize_all_variables() 创建一个初始化所有变量的对象
tf.Session() 创建一个Session对话
sess.run() Session对话指定执行操作
25 for i in range(1000): 26 batch_xs,batch_ys = mnist.train.next_batch(100) 27 sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys}) 28 29 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 30 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) 31 print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
25~27行就是训练过程,一共迭代一千次,每次送入小批量一百个数据,这里使用数据集的函数
mnist.train.next_batch 可以返回一个小批数据集
然后就是Session对话的run()函数,指定优化器的运行,还有feed_dict送入数据字典的指定,上述代码指定输出小批量的数据。
29~31行就是输出识别结果,其中用到tensorflow函数:
tf.argmax 返回的是vector中的最大值的索引号
tf.equal 判断是否相等
tf.reduce_mean 求均值
tf.cast 类型转换
输出:0.9187
表示识别率达到91.87%,但是没什么卵用,还是很糟糕的结果,模型太简单了,不过通过这样的学习,可以大概基础地入门tensorflow的坑。
接下来我将继续深入tensorflow的坑!
以上是关于基于MNIST手写数字数据集的数字识别小程序的主要内容,如果未能解决你的问题,请参考以下文章
MATLAB可视化实战系列(四十)-基于MATLAB 自带手写数字集的CNN(LeNet5)手写数字识别-图像处理(附源代码)
基于 Tensorflow 2.x 实现 BP 神经网络,实践 MNIST 手写数字识别
基于 Tensorflow 2.x 实现 BP 神经网络,实践 MNIST 手写数字识别