如何设置本地模型存储库 - 带有 Minio 的 Tensorrt 推理服务器

Posted

技术标签:

【中文标题】如何设置本地模型存储库 - 带有 Minio 的 Tensorrt 推理服务器【英文标题】:How to set local model repository - Tensorrt inference server with Minio 【发布时间】:2019-05-23 14:00:18 【问题描述】:

您好,我想设置 Kubeflow - NVIDIA TensorRT 推理服务器,其存储库位于 MinIO。

我不知道如何更改 gs://inference-server-model-store/tf_model_store 来连接 Minio。

ks init my-inference-server
cd my-inference-server
ks registry add kubeflow https://github.com/kubeflow/kubeflow/tree/master/kubeflow
ks pkg install kubeflow/nvidia-inference-server
ks generate nvidia-inference-server iscomp --name=inference-server --image=nvcr.io/nvidia/tensorrtserver:19.04-py3 --modelRepositoryPath=gs://inference-server-model-store/tf_model_store

【问题讨论】:

【参考方案1】:

Kubeflow 上的 NVIDIA TensorRT 推理文档似乎尚未更新。

在收购 Heptio 后,Ksonnet 将变为 deprecated。因此 Kubeflow 是 移动到Kustomize。

如果您考虑使用 Kustomize,您可以使用 Kubeflow 配置 S3 API,如 here 所述。您应该可以将s3://bucket/object 用于模型。

【讨论】:

以上是关于如何设置本地模型存储库 - 带有 Minio 的 Tensorrt 推理服务器的主要内容,如果未能解决你的问题,请参考以下文章

分布式文件存储库MinIO可还行?

云原生之Docker实战使用Docker部署MinIO对象存储

分布式技术专题「OSS中间件系列」Minio的文件服务的存储模型及整合Java客户端访问的实战指南

分布式技术专题「OSS中间件系列」Minio的文件服务的存储模型及整合Java客户端访问的实战指南

如何使用Minio进行对象存储和数据管理

在本地存储中保存模型