DMA和tensorflow的print是啥意思?是不是可以设置它们?
Posted
技术标签:
【中文标题】DMA和tensorflow的print是啥意思?是不是可以设置它们?【英文标题】:What does the print of DMA and tensorflow mean? And is it possible to set them?DMA和tensorflow的print是什么意思?是否可以设置它们? 【发布时间】:2017-07-13 09:12:35 【问题描述】:Y Y
或 Y N
是什么意思?
如何自己设置Y
和N
?
顺便说一句,机器在打印时关闭(在错误机器上)
Y Y
Y Y
打印时(在另一台机器上)在两个 GPU 上成功运行
Y N
N Y
所以我想知道是不是问题。
编辑:
我使用下面的程序可以让它关机。
import numpy as np
import tensorflow as tf
with tf.device('/gpu:0'):
W = tf.Variable([.3], tf.float32)
b = tf.Variable([-.3], tf.float32)
with tf.device('/gpu:1'):
x = tf.placeholder(tf.float32)
linear_model = W * x + b
y = tf.placeholder(tf.float32)
loss = tf.reduce_sum(tf.square(linear_model - y)) # sum of the squares
optimizer = tf.train.GradientDescentOptimizer(0.01)
train = optimizer.minimize(loss)
x_train = [1,2,3,4]
y_train = [0,-1,-2,-3]
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
for i in range(1000):
sess.run(train, x:x_train, y:y_train)
# evaluate training accuracy
curr_W, curr_b, curr_loss = sess.run([W, b, loss], x:x_train, y:y_train)
print("W: %s b: %s loss: %s"%(curr_W, curr_b, curr_loss))
【问题讨论】:
一些调试技巧 -- devtalk.nvidia.com/default/topic/805106/… 【参考方案1】:是设备互连。这表明在多 GPU 训练期间数据在设备之间传输的速度有多快。
这不是问题。 “NY”配置取决于您的硬件配置。您不能手动设置它。
This@McAngus 的帖子有完整的答案。
【讨论】:
以上是关于DMA和tensorflow的print是啥意思?是不是可以设置它们?的主要内容,如果未能解决你的问题,请参考以下文章
TensorFlow对象检测配置文件中的“num_examples:2000”是啥意思?
tensorflow Conv2D 中的 padding='same' 到底是啥意思?是最小填充还是 input_shape == output_shape