YOLO-v5训练自己的数据+TensorRT推理部署

Posted 踟蹰横渡口,彳亍上滩舟。

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了YOLO-v5训练自己的数据+TensorRT推理部署相关的知识,希望对你有一定的参考价值。

YOLO-v5训练自己的数据+TensorRT推理部署(2)

代码下载地址:下载地址

YOLO v5转TensorRT模型并调用

0.pt模型转wts模型

python3 gen_wts.py
# 注意修改代码中模型保存和模型加载的路径

1.修改部分文件

  • 0.修改CMakeLists.txt
cmake_minimum_required(VERSION 2.6)
project(yolov5)
add_definitions(-std=c++11)
option(CUDA_USE_STATIC_CUDA_RUNTIME OFF)
set(CMAKE_CXX_STANDARD 11)
set(CMAKE_BUILD_TYPE Debug)
find_package(CUDA REQUIRED)
set(CUDA_NVCC_PLAGS $CUDA_NVCC_PLAGS;-std=c++11;-g;-G;-gencode;arch=compute_30;code=sm_30)
include_directories($PROJECT_SOURCE_DIR/include)
# include and link dirs of cuda and tensorrt, you need adapt them if yours are different
# cuda
include_directories(/usr/local/cuda/include)
link_directories(/usr/local/cuda/lib6

以上是关于YOLO-v5训练自己的数据+TensorRT推理部署的主要内容,如果未能解决你的问题,请参考以下文章

图像分类实战:mobilenetv2从训练到TensorRT部署(pytorch)

图像分类实战:mobilenetv2从训练到TensorRT部署(pytorch)

为啥使用 TensorRT 使用 INT8 推理输出更多数据

Pytorch:YOLO-v5目标检测(上)

Pytorch:YOLO-v5目标检测(下)

在 python 上使用 TensorRT .engine 文件进行推理