如何优化用于 TensorRT 推理的 grid_sample 的自定义双线性采样替代方案?

Posted

技术标签:

【中文标题】如何优化用于 TensorRT 推理的 grid_sample 的自定义双线性采样替代方案?【英文标题】:How to optimize the custom bilinear sampling alternative to grid_sample for TensorRT inference? 【发布时间】:2021-05-25 12:21:44 【问题描述】:

我正在尝试通过 ONNX(opset 11)将带有 torch.nn.functional.grid_sample 的模型从 Pytorch (1.6) 转换为 TensorRT (7)。 Opset 11 不支持 grid_sample 转换。 我发现的自定义替代方案 (https://github.com/pytorch/pytorch/issues/27212) 在 Pytorch 中运行时非常慢,并且在将主循环转换为 TRT 时遇到问题。

我自己的双线性采样实现(不仅仅是 grid_sample,而是整个原始采样,基于 grid_sample)在 Pytorch 中执行得更快,并成功转换为 TRT。 但是我在 TRT 中的自定义双线性采样比 Pytorch 中的慢(5.6 ms vs 2.0 ms)。事实证明,Pytorch image[:, ind, y0, x0] 索引生成 Gather 层的运行时间约为 0.97 ms。而这种双线性采样的 TRT 版本中有 4 个这样的层。

所以问题是:

我应该如何优化我的 Pytorch 代码以获得有效的 TRT 模型? 我应该怎么做才能让 Gather 层执行得更快? 将此函数创建为自定义 TRT 插件是否有助于提高速度?

这里是双线性采样函数的代码:

def bilinear_sample_noloop(image, grid):
    """
    :param image: sampling source of shape [N, C, H, W]
    :param grid: integer sampling pixel coordinates of shape [N, grid_H, grid_W, 2]
    :return: sampling result of shape [N, C, grid_H, grid_W]
    """
    Nt, C, H, W = image.shape
    grid_H = grid.shape[1]
    grid_W = grid.shape[2]
    xgrid, ygrid = grid.split([1, 1], dim=-1)
    mask = ((xgrid >= 0) & (ygrid >= 0) & (xgrid < W - 1) & (ygrid < H - 1)).float()
    x0 = torch.floor(xgrid)
    x1 = x0 + 1
    y0 = torch.floor(ygrid)
    y1 = y0 + 1
    wa = ((x1 - xgrid) * (y1 - ygrid)).permute(3, 0, 1, 2)
    wb = ((x1 - xgrid) * (ygrid - y0)).permute(3, 0, 1, 2)
    wc = ((xgrid - x0) * (y1 - ygrid)).permute(3, 0, 1, 2)
    wd = ((xgrid - x0) * (ygrid - y0)).permute(3, 0, 1, 2)
    x0 = (x0 * mask).view(Nt, grid_H, grid_W).long()
    y0 = (y0 * mask).view(Nt, grid_H, grid_W).long()
    x1 = (x1 * mask).view(Nt, grid_H, grid_W).long()
    y1 = (y1 * mask).view(Nt, grid_H, grid_W).long()
    ind = torch.arange(Nt, device=image.device) #torch.linspace(0, Nt - 1, Nt, device=image.device)
    ind = ind.view(Nt, 1).expand(-1, grid_H).view(Nt, grid_H, 1).expand(-1, -1, grid_W).long()
    image = image.permute(1, 0, 2, 3)
    output_tensor = (image[:, ind, y0, x0] * wa + image[:, ind, y1, x0] * wb + image[:, ind, y0, x1] * wc + \
                 image[:, ind, y1, x1] * wd).permute(1, 0, 2, 3)
    output_tensor *= mask.permute(0, 3, 1, 2).expand(-1, C, -1, -1)
    image = image.permute(1, 0, 2, 3)
    return output_tensor, mask

时间分析参数:

时间分析实验是在笔记本电脑 Dell G3 15(Core i7 8750H 2.2 GHz x12、16 Gb RAM (2666MHz)、NVidia GeForce GTX 1050 Ti)上进行的。 用于分析的 Pytorch 环境:Python 3.7 Anaconda 3 环境,Pytorch 1.6。 Pytorch 时间分析是通过 time.time() 和 torch.synchronize() 在每个时间戳之前执行的。 TRT 分析环境:Docker 容器http://nvcr.io/nvidia/tensorrt:20.06-py3。使用 trtexec 以及自定义 C++ 和 Python 代码执行分析。所有三个结果都很接近。

使用 trtexec 进行 TRT 模型分析的一部分:

     Layer   Time (ms)   Avg. Time (ms)   Time %
...
   Mul_146        5.82             0.03      0.5
   Add_147        8.50             0.04      0.7
Gather_148      214.39             0.97     17.3
Gather_174      214.25             0.97     17.3
Gather_201      213.88             0.97     17.3
Gather_228      214.48             0.97     17.3
 Add_237))       25.01             0.11      2.0
   Mul_251        7.84             0.04      0.6
     Total     1238.40             5.60    100.0

此外,我尝试将图像视为除 C 之外的所有维度上的线性数组,并创建线性索引以以图像 [:, p0] 形式寻址元素。在这种情况下,Gather 变得更慢(大约 1.07 毫秒)。然后我考虑了 C=1(因为它总是在原始模型中)并将张量元素处理为 image[p0]。这次 Gather 大约需要 0.92 毫秒(仍然太慢)。

【问题讨论】:

【参考方案1】:

以下代码可用于将 Pytorch 转换为 TensorRT 作为图像的双线性插值

def bilinear_interpolate_torch(im, y, x):
'''
   im : B,C,H,W
   y : 1,numPoints -- pixel location y float
   x : 1,numPOints -- pixel location y float
'''


x0 = torch.floor(x).type(torch.cuda.LongTensor)
x1 = x0 + 1

y0 = torch.floor(y).type(torch.cuda.LongTensor)
y1 = y0 + 1

wa = (x1.type(torch.cuda.FloatTensor) - x) * (y1.type(torch.cuda.FloatTensor) - y)
wb = (x1.type(torch.cuda.FloatTensor) - x) * (y - y0.type(dtype))
wc = (x - x0.type(torch.cuda.FloatTensor)) * (y1.type(torch.cuda.FloatTensor) - y)
wd = (x - x0.type(torch.cuda.FloatTensor)) * (y - y0.type(torch.cuda.FloatTensor))
# Instead of clamp
x1 = x1 - torch.floor(x1 / im.shape[3]).int()
y1 = y1 - torch.floor(y1 / im.shape[2]).int()
Ia = im[:, :, y0, x0]
Ib = im[:, :, y1, x0]
Ic = im[:, :, y0, x1]
Id = im[:, :, y1, x1]

return Ia  * wa + Ib * wb + Ic * wc + Id * wd

【讨论】:

以上是关于如何优化用于 TensorRT 推理的 grid_sample 的自定义双线性采样替代方案?的主要内容,如果未能解决你的问题,请参考以下文章

TensorRT-介绍-使用-安装

TensorRT模型加速 | 网络结构优化 | 低精度推理

TensorRT模型加速 | 网络结构优化 | 低精度推理

TensorRT模型加速 | 网络结构优化 | 低精度推理

在使用 TensorRT 推理服务器时指定优化策略

TensorRT 模型加速 2- 优化方式