YOLO-v5训练自己的数据+TensorRT推理部署
Posted 踟蹰横渡口,彳亍上滩舟。
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了YOLO-v5训练自己的数据+TensorRT推理部署相关的知识,希望对你有一定的参考价值。
YOLO-v5训练自己的数据+TensorRT推理部署(2)
代码下载地址:下载地址
YOLO v5转TensorRT模型并调用
0.pt模型转wts模型
python3 gen_wts.py
# 注意修改代码中模型保存和模型加载的路径
1.修改部分文件
- 0.修改CMakeLists.txt
cmake_minimum_required(VERSION 2.6)
project(yolov5)
add_definitions(-std=c++11)
option(CUDA_USE_STATIC_CUDA_RUNTIME OFF)
set(CMAKE_CXX_STANDARD 11)
set(CMAKE_BUILD_TYPE Debug)
find_package(CUDA REQUIRED)
set(CUDA_NVCC_PLAGS $CUDA_NVCC_PLAGS;-std=c++11;-g;-G;-gencode;arch=compute_30;code=sm_30)
include_directories($PROJECT_SOURCE_DIR/include)
# include and link dirs of cuda and tensorrt, you need adapt them if yours are different
# cuda
include_directories(/usr/local/cuda/include)
link_directories(/usr/local/cuda/lib6
以上是关于YOLO-v5训练自己的数据+TensorRT推理部署的主要内容,如果未能解决你的问题,请参考以下文章
图像分类实战:mobilenetv2从训练到TensorRT部署(pytorch)
图像分类实战:mobilenetv2从训练到TensorRT部署(pytorch)