NVIDIA|深度学习性能架构组-TensorRT

Posted NvTracy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了NVIDIA|深度学习性能架构组-TensorRT相关的知识,希望对你有一定的参考价值。

招聘贴-TensorRT 


TensorRT是什么

以 CUDA 为基础构建而成,用于高性能 深度学习推理的SDK, 能够优化在所有主要框架中训练的神经网络模型,精确校正低精度,并最终将模型部署到超大规模数据中心、嵌入式或汽车产品平台上

与所有主要框架集成

NVIDIA|深度学习性能架构组-TensorRT

广泛应用

开发者可专注于创建新颖的AI支持应用,无需费力调节性能来部署推理工作




[热招岗位名称]

Deep Learning Inference Software Engineer-上海


[你会做些什么呢]:

* TensorRT library开发(新feature,新GPU架构支持等)

* Inference kernel 开发及性能优化 

* 端到端inference 性能分析及优化

* 为下一代GPU/DLA架构设计提供输入
 

[我们想看到这样的你]:
* 扎实的编程能力(C++)

* 严谨的逻辑思维和分析能力
* 在以下一项或多项技术领域有工作经验(加分)

- CUDA软件开发及优化

- Deep Learning软件开发

- GPU或通用CPU架构研究


简历投递

邮箱:  tracyw@nvidia.com  微信: 1751315121



点击阅读原文, 获取更多TensorRT产品信息

以上是关于NVIDIA|深度学习性能架构组-TensorRT的主要内容,如果未能解决你的问题,请参考以下文章

TensorRT 模型加速 1-输入输出部署流程

TensorRT 模型加速 1-输入输出部署流程

深度学习系列15:tensorRT基础

模型部署Tensorrt学习记录

NVIDIA Jetson YOLOv5 tensorRT部署和加速 C++版

深度学习部署架构:以 Triton Inference Server(TensorRT)为例