tensorflow入门
Posted ldphoebe
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tensorflow入门相关的知识,希望对你有一定的参考价值。
官网上对TensorFlow的介绍是,
一个使用数据流图(data flow graphs)技术来进行数值计算的开源软件库。
数据流图中的节点,代表数值运算;
节点节点之间的边,代表多维数据(tensors)之间的某种联系。
你可以在多种设备(含有CPU或GPU)上通过简单的API调用来使用该系统的功能。
什么是数据流图(Data Flow Graph)
数据流图是描述有向图
中的数值计算过程。
有向图
中的节点通常代表数学运算,但也可以表示数据的输入、输出和读写等操作;
有向图
中的边表示节点之间的某种联系,它负责传输多维数据(Tensors)。
图中这些tensors
的flow
也就是TensorFlow的命名来源。
节点可以被分配到多个计算设备上,可以异步和并行地执行操作。
因为是有向图,所以只有等到之前的入度节点们的计算状态完成后,当前节点才能执行操作。
TensorFlow的特性
1 灵活性
TensorFlow不是一个严格的神经网络工具包,只要你可以使用数据流图来描述你的计算过程,你可以使用TensorFlow做任何事情。你还可以方便地根据需要来构建数据流图,用简单的Python语言来实现高层次的功能。
2 可移植性
TensorFlow可以在任意具备CPU或者GPU的设备上运行,你可以专注于实现你的想法,而不用去考虑硬件环境问题,你甚至可以利用Docker技术来实现相关的云服务。
3 提高开发效率
TensorFlow可以提升你所研究的东西产品化的效率,并且可以方便与同行们共享代码。
4 支持语言选项
目前TensorFlow支持Python和C++语言。(但是你可以自己编写喜爱语言的SWIG接口)
5 充分利用硬件资源,最大化计算性能
基本使用
你需要理解在TensorFlow中,是如何:
- 将计算流程表示成图;
- 通过
Sessions(会话)
来执行图计算; - 将数据表示为
tensors(多维数据,节点)
; - 使用
Variables
来保持状态信息; - 分别使用
feeds
和fetches
来填充数据和抓取任意的操作结果;
概览
TensorFlow是一种将计算表示为图的编程系统。任何可以用数据流图表示的图形都可以用tensorflow表示。
图中的节点称为ops
(operation的简称)。一个ops
使用0个或以上的Tensors
,通过执行某些运算,产生0个或以上的Tensors
。一个Tensor
是一个多维数组,例如,你可以将一批图像表示为一个四维的数组[batch, height, width, channels]
,数组中的值均为浮点数。
图中的节点称为ops,一个ops使用由多个tensors表示,一个tensor是一个多维数组,如例,你可以将一批图像表示为一个四维的数组[batch, height, width, channels]
,数组中的值均为浮点数。
TensorFlow中的图描述了计算过程,图通过Session
的运行而执行计算。Session
将图的节点们(即ops)放置到计算设备(如CPUs和GPUs)上,然后通过方法执行它们;这些方法执行完成后,将返回tensors。在Python中的tensor的形式是numpy ndarray
对象,而在C/C++中则是tensorflow::Tensor
.
图计算
TensorFlow程序中图的创建类似于一个 [施工阶段],而在 [执行阶段] 则利用一个session
来执行图中的节点。
很常见的情况是,在 [施工阶段] 创建一个图来表示和训练神经网络,而在 [执行阶段] 在图中重复执行一系列的训练操作。
创建图
在TensorFlow中,Constant
是一种没有输入的ops
,但是你可以将它作为其他ops
的输入。Python库中的ops构造器
将返回构造器的输出。TensorFlow的Python库中有一个默认的图,将ops构造器
作为节点,更多可了解Graph Class文档。
见下面的示例代码:
import tensorflow as tf # Create a Constant op that produces a 1x2 matrix. The op is # added as a node to the default graph. # # The value returned by the constructor represents the output # of the Constant op. matrix1 = tf.constant([[3., 3.]])//constant常数 # Create another Constant that produces a 2x1 matrix. matrix2 = tf.constant([[2.],[2.]]) # Create a Matmul(矩阵相乘) op that takes ‘matrix1‘ and ‘matrix2‘ as inputs. # The returned value, ‘product‘, represents the result of the matrix # multiplication. product = tf.matmul(matrix1, matrix2)
默认的图(Default Graph)现在有了三个节点:两个 Constant()
ops和一个matmul()
op。为了得到这两个矩阵的乘积结果,还需要在一个session
中启动图计算。
在Session中执行图计算
见下面的示例代码,更多可了解Session Class:
# Launch the default graph. sess = tf.Session() # To run the matmul op we call the session ‘run()‘ method, passing ‘product‘ # which represents the output of the matmul op. This indicates to the call # that we want to get the output of the matmul op back. # # All inputs needed by the op are run automatically by the session. They # typically are run in parallel. # # The call ‘run(product)‘ thus causes the execution of threes ops in the # graph: the two constants and matmul. # # The output of the op is returned in ‘result‘ as a numpy `ndarray` object. result = sess.run(product) print(result) # ==> [[ 12.]] # Close the Session when we‘re done. sess.close()
Sessions最后需要关闭,以释放相关的资源;你也可以使用with
模块,session在with
模块中自动会关闭:(with ...as...python中自动关闭的功能)
with tf.Session() as sess:
result = sess.run([product])
print(result)
TensorFlow的这些节点最终将在计算设备(CPUs,GPus)上执行运算。如果是使用GPU,默认会在第一块GPU上执行,如果你想在第二块多余的GPU上执行:
with tf.Session() as sess:
with tf.device("/gpu:1"):
matrix1 = tf.constant([[3., 3.]])
matrix2 = tf.constant([[2.],[2.]])
product = tf.matmul(matrix1, matrix2)
...
device中的各个字符串含义如下:
"/cpu:0"
: 你机器的CPU;"/gpu:0"
: 你机器的第一个GPU;"/gpu:1"
: 你机器的第二个GPU;
交互环境下的使用
以上的python示例中,使用了Session
和Session.run()
来执行图计算。然而,在一些Python的交互环境下(如IPython中),你可以使用InteractiveSession
类,以及Tensor.eval()
、Operation.run()
等方法。例如,在交互的Python环境下执行以下代码:
# Enter an interactive TensorFlow Session. import tensorflow as tf sess = tf.InteractiveSession() x = tf.Variable([1.0, 2.0]) a = tf.constant([3.0, 3.0]) # Initialize ‘x‘ using the run() method of its initializer op. x.initializer.run() # Add an op to subtract ‘a‘ from ‘x‘. Run it and print the result sub = tf.sub(x, a) print(sub.eval()) # ==> [-2. -1.] # Close the Session when we‘re done. sess.close()
Tensors
TensorFlow中使用tensor
数据结构(实际上就是一个多维数据)表示所有的数据,并在图计算中的节点之间传递数据。一个tensor
具有固定的类型、级别和大小,更加深入理解这些概念可参考Rank, Shape, and Type。
变量(Variables)
变量在图执行的过程中,保持着自己的状态信息。下面代码中的变量充当了一个简单的计数器角色:
# Create a Variable, that will be initialized to the scalar value 0. state = tf.Variable(0, name="counter") # Create an Op to add one to `state`. one = tf.constant(1) new_value = tf.add(state, one) update = tf.assign(state, new_value) # Variables must be initialized by running an `init` Op after having # launched the graph. We first have to add the `init` Op to the graph. init_op = tf.initialize_all_variables() # Launch the graph and run the ops. with tf.Session() as sess: # Run the ‘init‘ op sess.run(init_op) # Print the initial value of ‘state‘ print(sess.run(state)) # Run the op that updates ‘state‘ and print ‘state‘. for _ in range(3): sess.run(update) print(sess.run(state)) # output: # 0 # 1 # 2 # 3
赋值函数assign()
和add()
函数类似,直到session的run()
之后才会执行操作。与之类似的,一般我们会将神经网络模型中的参数表示为一系列的变量,在模型的训练过程中对变量进行更新操作。
抓取(Fetches)
为了抓取ops
的输出,需要先执行session
的run
函数。然后,通过print
函数打印状态信息。
input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
intermed = tf.add(input2, input3)
mul = tf.mul(input1, intermed)
with tf.Session() as sess:
result = sess.run([mul, intermed])
print(result)
# output:
# [array([ 21.], dtype=float32), array([ 7.], dtype=float32)]
所有tensors的输出都是一次性 [连贯] 执行的。
填充(Feeds)
TensorFlow也提供这样的机制:先创建特定数据类型的占位符(placeholder),之后再进行数据的填充。例如下面的程序:
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
output = tf.mul(input1, input2)
with tf.Session() as sess:
print(sess.run([output], feed_dict={input1:[7.], input2:[2.]}))
# output:
# [array([ 14.], dtype=float32)]
如果不对placeholder()
的变量进行数据填充,将会引发错误,更多的例子可参考MNIST fully-connected feed tutorial (source code)。
示例:曲线拟合
下面是一段使用Python写的,曲线拟合计算。官网将此作为刚开始介绍的示例程序。
# 简化调用库名
import tensorflow as tf
import numpy as np
# 模拟生成100对数据对, 对应的函数为y = x * 0.1 + 0.3
x_data = np.random.rand(100).astype("float32")
y_data = x_data * 0.1 + 0.3
# 指定w和b变量的取值范围(注意我们要利用TensorFlow来得到w和b的值)
W = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1]))
y = W * x_data + b
# 最小化均方误差
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
# 初始化TensorFlow参数
init = tf.initialize_all_variables()
# 运行数据流图(注意在这一步才开始执行计算过程)
sess = tf.Session()
sess.run(init)
# 观察多次迭代计算时,w和b的拟合值
for step in xrange(201):
sess.run(train)
if step % 20 == 0:
print(step, sess.run(W), sess.run(b))
# 最好的情况是w和b分别接近甚至等于0.1和0.3
以上是关于tensorflow入门的主要内容,如果未能解决你的问题,请参考以下文章
分享《深度学习之TensorFlow:入门原理与进阶实战》PDF+源代码
分享《深度学习之TensorFlow:入门原理与进阶实战》PDF+源代码