如何将本地训练的 TensorFlow 图形文件部署到 Google Cloud Platform?

Posted

技术标签:

【中文标题】如何将本地训练的 TensorFlow 图形文件部署到 Google Cloud Platform?【英文标题】:How to deploy locally trained TensorFlow graph file to Google Cloud Platform? 【发布时间】:2017-11-01 16:09:33 【问题描述】:

我遵循了 TensorFlow for Poets 教程,并用我自己的一些课程替换了现有的flower_photos。现在我的labels.txt 文件和graph.pb 保存在我的本地计算机上。

我有没有办法将此预训练模型部署到 Google Cloud Platform?我一直在阅读文档,我能找到的只是关于如何从他们的 ML 引擎中创建、训练和部署模型的说明。但是我不想花钱在 Google 的服务器上训练我的模型,因为我只需要它们来托管我的模型,以便我可以调用它来进行预测。

还有人遇到同样的问题吗?

【问题讨论】:

【参考方案1】:

部署本地训练的模型是受支持的用例;无论您在哪里训练,instructions 本质上都是相同的:

要部署您需要的模型版本:

保存在 Google Cloud Storage 上的 TensorFlow SavedModel。你可以得到一个 模特:

按照 Cloud ML Engine 训练步骤在 云。

在其他地方训练并导出到 SavedModel。

不幸的是,TensorFlow for Poets 没有显示如何导出 SavedModel(我已提交功能请求以解决该问题)。同时,您可以编写如下所示的“转换器”脚本(您也可以在训练结束时执行此操作,而不是保存 graph.pb 并重新读取):

input_graph = 'graph.pb'
saved_model_dir = 'my_model'

with tf.Graph() as graph:
  # Read in the export graph
  with tf.gfile.FastGFile(input_graph, 'rb') as f:
      graph_def = tf.GraphDef()
      graph_def.ParseFromString(f.read())
      tf.import_graph_def(graph_def, name='')

  # CloudML Engine and early versions of TensorFlow Serving do
  # not currently support graphs without variables. Add a
  # prosthetic variable.
  dummy_var = tf.Variable(0)

  # Define SavedModel Signature (inputs and outputs)
  in_image = graph.get_tensor_by_name('DecodeJpeg/contents:0')
  inputs = 'image_bytes': 
tf.saved_model.utils.build_tensor_info(in_image)

  out_classes = graph.get_tensor_by_name('final_result:0')
  outputs = 'prediction': tf.saved_model.utils.build_tensor_info(out_classes)

  signature = tf.saved_model.signature_def_utils.build_signature_def(
      inputs=inputs,
      outputs=outputs,
      method_name='tensorflow/serving/predict'
  )

  # Save out the SavedModel.
  b = saved_model_builder.SavedModelBuilder(saved_model_dir)
  b.add_meta_graph_and_variables(sess,
                                 [tf.saved_model.tag_constants.SERVING],
                                 signature_def_map='predict_images': signature)
  b.save() 

(基于this codelab 和this SO post 的未经测试的代码)。

如果您希望输出使用字符串标签而不是整数索引,请进行以下更改:

  # Loads label file, strips off carriage return
  label_lines = [line.rstrip() for line 
                 in tf.gfile.GFile("retrained_labels.txt")]
  out_classes = graph.get_tensor_by_name('final_result:0')
  out_labels = tf.gather(label_lines, ot_classes)
  outputs = 'prediction': tf.saved_model.utils.build_tensor_info(out_labels)

【讨论】:

【参考方案2】:

不幸的是,仅部分回答,但我已经能够做到这一点......但有一些我尚未解决的持续问题。我将经过训练的 pb 和 txt 文件移植到我的服务器上,安装了 Tensorflow,并通过 HTTP 请求调用经过训练的模型。它完美地工作......在第一次运行时。然后每隔一段时间就失败一次。

tensorflow deployment on openshift, errors with gunicorn and mod_wsgi

很惊讶没有更多的人试图解决这个普遍问题。

【讨论】:

以上是关于如何将本地训练的 TensorFlow 图形文件部署到 Google Cloud Platform?的主要内容,如果未能解决你的问题,请参考以下文章

如何将训练有素的 Tensorflow 模型转换为 Keras?

如何在不使用本地PC转换的情况下将我在google colab中训练的tensorflow的protobuf训练模型转换为tensorflowjs?

在 tensorflow 中恢复图形失败,因为没有要保存的变量

Tensorflow:用 tf.Variable 替换/提供图形的占位符?

从 C++ 中的 Tensorflow 的 .meta 文件加载图形以进行推理

TensorFlow 从文件中保存/加载图形