keras 在train_on_batch中启用tensorboard

Posted superxuezhazha

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了keras 在train_on_batch中启用tensorboard相关的知识,希望对你有一定的参考价值。

def write_log(callback, names, logs, batch_no):
    for name, value in zip(names, logs):
        summary = tf.Summary()
        summary_value = summary.value.add()
        summary_value.simple_value = value
        summary_value.tag = name
        callback.writer.add_summary(summary, batch_no)
        callback.writer.flush()

在训练的时候,调用上述函数,写入tensorboard

  loss = model.train_on_batch([x1,x2],y)
  write_log(tensorboard_cb,["trainloss","me"],loss,bathNo)

 

以上是关于keras 在train_on_batch中启用tensorboard的主要内容,如果未能解决你的问题,请参考以下文章

keras 中带有 train_on_batch 的自定义 Loss fnc 用于重放学习

在 keras 中制作自定义损失函数

Tensorflow+kerasKeras API两种训练GAN网络的方式

Tensorflow+kerasKeras API两种训练GAN网络的方式

如何使用 Theano 启用 Keras 以利用多个 GPU

如何查看 Google Colab 生成的 train_on_batch tensorboard 日志文件?