text 在tx2上运行tensor-rt样本模型

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了text 在tx2上运行tensor-rt样本模型相关的知识,希望对你有一定的参考价值。


cd /home/nvidia/tegra_multimedia_api/samples/backend
./backend 1 ../../data/Video/sample_outdoor_car_1080p_10fps.h264 H264 --trt-deployfile ../../data/Model/GoogleNet_one_class/GoogleNet_modified_oneClass_halfHD.prototxt --trt-modelfile ../../data/Model/GoogleNet_one_class/GoogleNet_modified_oneClass_halfHD.caffemodel --trt-forcefp32 0 --trt-proc-interval 1 -fps 10


backend <channel-num> <in-file1> <in-file2>... <in-format> [options]

Channel-num:
	1-4, Number of file arguments should exactly match the number of channels specified

Supported formats:
	H264
	H265

OPTIONS:
	-h,--help            Prints this text
	-fps <fps>           Display rate in frames per second [Default = 30]

	--input-nalu         Input to the decoder will be nal units[Default]
	--input-chunks       Input to the decoder will be a chunk of bytes

	--trt-deployfile     set deploy file name
	--trt-modelfile      set model file name
	--trt-proc-interval  set process interval, 1 frame will be process every trt-proc-interval
	--trt-forcefp32      0 to use fp16 (if supported), 1 to use fp32
	--trt-dumpresult     1 to dump result, 0[default] otherwise
	--trt-enable-perf    1[default] to enable perf measurement, 0 otherwise


以上是关于text 在tx2上运行tensor-rt样本模型的主要内容,如果未能解决你的问题,请参考以下文章

在 TX2 上运行 cupy

我如何在Jetson TX2上自动运行Python脚本?

TX2之多线程读取视频及深度学习推理

text 基础知识linux / tx2

text 将ssh与tx2连接

text tx2上的nvgstiva-app