缺少 Tensorboard 节点内存信息

Posted

技术标签:

【中文标题】缺少 Tensorboard 节点内存信息【英文标题】:Missing Tensorboard Node Memory Information 【发布时间】:2017-12-20 04:09:48 【问题描述】:

我正在尝试获取有关我的图形需要多少内存的信息,因此我正在尝试使用 tf.RunMetadata train 选项检查张量板上不同图形组件的字节信息。我的代码的训练部分如下所示:

sess=tf.Session
...

for itr in xrange(MAX_STEPS):
    train_images, train_annotations = train_dataset_reader.next_batch(BATCH_SIZE)
    feed_dict = x: train_images, y: train_annotations
    run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)
    run_metadata = tf.RunMetadata()
    sess.run(train_step, feed_dict=feed_dict, options=run_options, run_metadata=run_metadata)

    #Tensorboard summary tester
    if itr % 1000 == 0:
        s = sess.run(merged_summary, feed_dict=feed_dict,options=run_options, run_metadata=run_metadata)

        writer.add_summary(s, itr)
        writer.add_run_metadata(run_metadata, 'sted%d' % itr)

但是,我的张量板图上仍然没有看到任何内存统计信息。输出如下:

【问题讨论】:

【参考方案1】:

我之前也有同样的问题。内存信息仅与特定的“会话运行”一起显示。所以你的问题是没有 Session 运行。

在我的情况下,删除之前的日志数据后再次运行,就解决了。

【讨论】:

以上是关于缺少 Tensorboard 节点内存信息的主要内容,如果未能解决你的问题,请参考以下文章

信息 JVM 参数。 . . -XX:+HeapDumpOnOutOfMemoryError - 节点是不是内存不足?

Tensorboard 记录非张量(numpy)信息(AUC)

Ambari管理的大数据集群主节点内存扩容操作步骤说明

Tensorboard - 分析计算时间 - 运行时统计中的一切都是“未使用的子结构”

如何查看Isilon节点的硬件信息?

numactl --hardware 显示不正确的信息