pytorch C++部署模型 ONNX tensorRT

Posted Dontla

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了pytorch C++部署模型 ONNX tensorRT相关的知识,希望对你有一定的参考价值。

(1)

C++部署pytorch模型(上)

(2)

TensorRT5介绍及Pytorch转TensorRT5代码示例

TensorRT的使用步骤:(假设以及有一个训练好的模型)
(1) 根据模型创建TensorRT网络定义
(2) 调用TensorRT构建器从网络创建优化的运行引擎
(3) 序列化和反序列化引擎,以便在运行时快速创建引擎
(4) 为引擎提供数据以执行计算

(3)

一般流程是这样的。

cpu: pytorch -> onnx -> onnxruntime

gpu:pytorch -> onnx -> onnx2trt -> TensorRT

上述库python、C++接口都具备,可以根据需要采用

转自:python训练的pytorch模型,如何使用c++调用并使用TensorRT加速?

(4)

tensorrt安装_深度学习模型部署(1)Pytorch转TensorRT(C++版)

说到底TensorRT的使用还是调包,只要对其流程熟悉了,使用起来也就不困难;
目前的模型是简单的unet结构,模型的层TensorRT都支持,下一步需要学习TRT中如何自定义自己的层,如DCN、NMS等。
教程还是官方的详细,本文也是对官方教程的翻译,再加上自己的一些理解与可能遇到的错误。建议英文阅读无障碍的朋友可以直接看官方的教程。

(5)

问题:为什么没有onnx转换pytorch的方法? - 九千树的回答 - 知乎
因为从pytorch到onnx,包含权重参数信息的网络结构被优化了,再返回去不好返

以上是关于pytorch C++部署模型 ONNX tensorRT的主要内容,如果未能解决你的问题,请参考以下文章

是否可以使用 C++ 训练在 tensorflow 和 pytorch 中开发的 ONNX 模型?

模型转换 PyTorch转ONNX 入门

yolov3 MNN框架部署C++版

对象检测模型 (PyTorch) 到 ONNX:ONNX 推理的空输出

Pytorch基础教程33spark或dl模型部署(MLFlow/ONNX/Runtime/tensorflow serving)

Pytorch的pth模型转onnx,再用ONNX Runtime调用推理(附python代码)