极智AI | 讲解 TensorRT 怎么实现 torch.select 层
Posted 极智视界
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了极智AI | 讲解 TensorRT 怎么实现 torch.select 层相关的知识,希望对你有一定的参考价值。
欢迎关注我的公众号 [极智视界],获取我的更多笔记分享
大家好,我是极智视界,本文讲解一下 TensorRT 实现 torch.select 层。
我们知道,有很多算子都不会在 TensorRT 的原生支持算子列表里,当然这里要讲的 select 算子也是一样。然而,大部分的算子通过一些 TensorRT 原生算子的再组合就能实现,像 select、hardswich 等算子都可以这么去做,但像 layernorm 等其他一些不容易通过原生算子组合实现的,直接用 plugin 实现会方便一些。
文章目录
1 torch.select 介绍
torch.select
类似切片操作,如 切片 x[:, 0, :]
等价于 x.select(dim=1, index=0)
。
其中 select(dim, index)
:第一个参数为索引的 维度,第二个参数为索引的维度的序列号。
来看示例代码:
>>> import torch
>>> a = torch.randn((3, 4))
>>> a
tensor([[-2.2622, 0.9470, -1.5170, -1.2614],
[ 1.7269, 0.7789, 2.0953, -1.1928],
[ 0.6136, -1.3214, 0.7611, -0.9582]])
>>> a.select(dim=1, index=1) # 取第1个维度中索引为1的值
tensor([ 0.9470, 0.7789, -1.3214])
2 TensorRT 实现 torch.select 层
分析一下:在上面的 pytorch 介绍和示例演示中可以看出,select 可以通过 类似切片的操作 + 取我们想要的数据 来完成,自然在做 TensorRT 的实现的时候也可以往这个思路走。torch.select 主要由 dim
、index
两个因子来控制 取 数据的粒度,而TensorRT 在用 Slice 去切 Tensor 的时候,一般由 start
、size
、stride
三个因子来控制 切 的粒度。这样,其实 select 的 dim
和 index
完全可以转换为 Slice 的三个因子去控制。
来用代码进行讲解:
/// 以下是 explicit 模式的写法,explicit 模式需要考虑 batch, 所以是四维的
// 假设输入input shape 为 [N, C, H, W] ==> [32, 50, 1, 512]
nvinfer1::Dims start 4, 0, 0, 0, 0 ;
nvinfer1::Dims size 4, 32, 1, 1, 512 ; // 这里相当于select 中 dim = 1, 因为是取了 [x, 50, x, x] 50 这个维度
nvinfer1::Dims stride 4, 1, 1, 1, 1 ;
// 添加 Slice 层
nvinfer1::ISliceLayer *slice = m_network->addSlice(*input, start, size, stride);
// 取数据
auto output = slice->getOutput(0); // 这里相当于 select 中 index = 0
// auto output = slice->getOutput(1); // 这里相当于 select 中 index = 1
以上 TensorRT slice <==> torch select 因子对照起来说明,应该会比较清楚一些。
好了,以上分享了 讲解 TensorRT 怎么实现 torch.select 层。希望我的分享能对你的学习有一点帮助。
【公众号传送】
扫描下方二维码即可关注我的微信公众号【极智视界】,获取我的更多经验分享,让我们用极致+极客的心态来迎接AI !
以上是关于极智AI | 讲解 TensorRT 怎么实现 torch.select 层的主要内容,如果未能解决你的问题,请参考以下文章
极智AI | 讲解 TensorRT Constant 算子
极智AI | 讲解 TensorRT Fully Connected 算子
极智AI | 讲解 TensoRT Activation 算子
极智AI | Attention 中 torch.chunk 的 TensorRT 实现