组在张量板的同一张图上运行

Posted

技术标签:

【中文标题】组在张量板的同一张图上运行【英文标题】:Group runs on the same graph in tensorboard 【发布时间】:2018-10-28 06:55:53 【问题描述】:

同时运行多个日志时,我可以在不同的图表中并排看到不同的训练曲线。

但是我想:

在一张图表上同时查看所有相同类型的图表(例如损失)

在单个图表上查看运行的平均值和方差/分布。

谢谢!

【问题讨论】:

这可能不是一个直接的答案,但一种方法是使用 tf.train.summary_iterator 从事件文件中提取数据,然后使用该数据制作自己的绘图。有关更多信息,请参阅此线程:***.com/questions/37304461/…。 【参考方案1】:

汇总图表

如果您的运行使用相同的摘要标签(例如 tf.summary.scalar('loss', loss))并将其事件文件保存在同一根目录的子目录中(例如 /model_results/run_1//model_results/run_2/、...),则打开 Tensorboard在根目录 (tensorboard --logdir=/model_results/) 上,您应该能够看到按标签聚合的图(至少对于最新版本的 Tensorboard)。

显示运行的平均值/方差

这似乎与How to display the average of multiple runs on tensorboard 重复。 @Alex 的解决方案非常彻底,使用 EventAccumulator 组合多个文件的标量摘要,并使用 tf.Summary() 写回累积值(均值、方差等)。

【讨论】:

【参考方案2】:

我在使用 tensorflow 作为后端调整 Keras 模型时遇到了同样的问题。 你可以在这里查看问题和代码:How to use Keras TensorBoard callback for grid search

【讨论】:

以上是关于组在张量板的同一张图上运行的主要内容,如果未能解决你的问题,请参考以下文章

如何更改张量板的日志记录级别?

text tensorflow保存张量板的图形

使用多个 GPU 运行 LSTM 会得到“输入和隐藏张量不在同一设备上”

张量流。同一台机器和同一型号上的一组 GPU 运行良好,另一组出现 OOM 错误

输入张量和隐藏张量不在同一个设备上,发现输入张量在 cuda:0 和隐藏张量在 cpu

使用张量板查找 DNNRegressor 的准确性