NVIDIA|深度学习性能架构组-TensorRT
Posted NvTracy
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了NVIDIA|深度学习性能架构组-TensorRT相关的知识,希望对你有一定的参考价值。
招聘贴-TensorRT
TensorRT是什么
以 CUDA 为基础构建而成,用于高性能 深度学习推理的SDK, 能够优化在所有主要框架中训练的神经网络模型,精确校正低精度,并最终将模型部署到超大规模数据中心、嵌入式或汽车产品平台上
与所有主要框架集成
广泛应用
开发者可专注于创建新颖的AI支持应用,无需费力调节性能来部署推理工作
Deep Learning Inference Software Engineer-上海
[你会做些什么呢]:
* TensorRT library开发(新feature,新GPU架构支持等)
* Inference kernel 开发及性能优化
* 端到端inference 性能分析及优化
* 为下一代GPU/DLA架构设计提供输入
[我们想看到这样的你]:
* 扎实的编程能力(C++)
* 严谨的逻辑思维和分析能力
* 在以下一项或多项技术领域有工作经验(加分)
- CUDA软件开发及优化
- Deep Learning软件开发
- GPU或通用CPU架构研究
邮箱: tracyw@nvidia.com 微信: 1751315121
点击阅读原文, 获取更多TensorRT产品信息
以上是关于NVIDIA|深度学习性能架构组-TensorRT的主要内容,如果未能解决你的问题,请参考以下文章