第二节 会话的概念
Posted kogmaw
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第二节 会话的概念相关的知识,希望对你有一定的参考价值。
import tensorflow as tf ‘‘‘ TensorFlow分为前端系统和后端系统 前端系统:定义程序的图和结构,即各类语言通过API接口写的程序 后端系统:运算图的结果 会话:即连接前后端的中间者,起到调度资源的效果 运行图结构 分配计算资源 掌握资源(队列,线程,变量的资源) ‘‘‘ a = tf.constant(5.0) b = tf.constant(6.0) # 用run方法打印sum2的时候会报错,因为不是op型,但是如果一部分数据是op型的,那会进行强制转化进行运算,run方法打印sum3时就不会报错 var1 = 2.0 var2 = 4.0 sum2 = var1 + var2 sum3 = var1 + a # 定义一张图 graph = tf.get_default_graph() # 不使用上下文启动会话,也可以用这种方式 s = tf.Session() # run运行图结构 print(s.run(sum3)) # 运行完成后需要释放资源,因此使用上下文管理器,程序运行完成后自动调用loss s.close() # 训练模型 # 实时的提供数据去进行训练,placeholder,feed_dict配合使用 # float32指定数据类型,[2, 3]指定数据格式是两行三列的数据,None表示样本数不固定 plt = tf.placeholder(tf.float32, [None, 3]) # 在终端进入python,启动交互环境,tf.InteractiveSession(),可以用a.eval()直接查看a的值,在会话的上下文环境也可以直接调用a.eval() # 只能运行一个图结构,可以在会话当中指定图, with tf.Session(graph = graph) as sess: # feed_dict参数允许调用者覆盖图中指定张量的值,提供给placeholder(占位符的作用)使用 print(sess.run(plt, feed_dict={plt:[[1, 3, 4], [4, 5, 6]]})) print(sum3.eval()) # sess.run([a, b, sum1], feed_dict=None)
以上是关于第二节 会话的概念的主要内容,如果未能解决你的问题,请参考以下文章
(王道408考研操作系统)第三章内存管理-第二节1:虚拟内存管理基本概念
(王道408考研操作系统)第三章内存管理-第二节1:虚拟内存管理基本概念