tensorflow 的 tfprof 输出理论 FLOPS 吗?

Posted

技术标签:

【中文标题】tensorflow 的 tfprof 输出理论 FLOPS 吗?【英文标题】:Does tensorflow's tfprof output theoretical FLOPS? 【发布时间】:2017-12-15 11:53:59 【问题描述】:

我使用 tfprof 来分析机器学习算法。这是示例输出: ==================模型分析报告====================== 节点名 | # float_ops _TFProfRoot (--/3163.86b 触发器) InceptionResnetV2/InceptionResnetV2/Mixed_6a/Branch_1/Conv2d_0b_3x3/convolution(173.41b/173.41b flops) InceptionResnetV2/InceptionResnetV2/Conv2d_4a_3x3/convolution(167.25b/167.25b flops)

这里,在“167.25b/167.25b flops”中,第二个 167.25b 表示什么?是理论上的失败吗?

【问题讨论】:

【参考方案1】:

是的,这是理论上的失败。 Ops 可以使用RegisterStatistics 注解注册统计信息。

Here 是此类注册的一个示例:

@ops.RegisterStatistics("MatMul", "flops")
def _calc_mat_mul_flops(graph, node):
  """Calculates the compute resources needed for MatMul."""
  transpose_a = node.attr["transpose_a"].b
  a_shape = graph_util.tensor_shape_from_node_def_name(graph, node.input[0])
  a_shape.assert_is_fully_defined()
  if transpose_a:
    k = int(a_shape[0])
  else:
    k = int(a_shape[1])
  output_shape = graph_util.tensor_shape_from_node_def_name(graph, node.name)
  output_shape.assert_is_fully_defined()
  output_count = np.prod(output_shape.as_list())
  return ops.OpStats("flops", (k * output_count * 2))

【讨论】:

以上是关于tensorflow 的 tfprof 输出理论 FLOPS 吗?的主要内容,如果未能解决你的问题,请参考以下文章

学习笔记TF044:TF.Contrib组件统计分布Layer性能分析器tfprof

单变量线性回归:TensorFlow 实战(理论篇)

tensorflow批标准化

深度学习--TensorFlow(项目)识别自己的手写数字(基于CNN卷积神经网络)

运用tensorflow写的第一个神经网络

线性回归详解(代码实现+理论证明)