BEVFormer-accelerate:基于 EasyCV 加速 BEVFormer
Posted 阿里云云栖号
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了BEVFormer-accelerate:基于 EasyCV 加速 BEVFormer相关的知识,希望对你有一定的参考价值。
导言
BEVFormer是一种纯视觉的自动驾驶感知算法,通过融合环视相机图像的空间和时序特征显式的生成具有强表征能力的BEV特征,并应用于下游3D检测、分割等任务,取得了SOTA的结果。我们在EasyCV开源框架(https://github.com/alibaba/EasyCV)中,对BEVFomer算法进行集成,并从训练速度、算法收敛速度角度对代码进行了一些优化。同时,我们进一步使用推理优化工具PAI-Blade对模型进行优化,相比于原始模型在A100配置下能取得40%的推理速度提升。本文将从以下几个部分进行介绍:1、BEVFormer算法思想 2、训练速度和算法收敛速度优化 3、使用PAI-Blade优化推理速度。
BEVFormer算法思想
如上图所示,BEVFormer由如下三个部分组成:
- backbone:用于从6个角度的环视图像中提取多尺度的multi-camera feature
- BEV encoder:该模块主要包括Temporal self-Attention 和 Spatial Cross-Attention两个部分。
- Spatial Cross-Attention结合多个相机的内外参信息对对应位置的multi-camera feature进行query,从而在统一的BEV视角下将multi-camera feature进行融合。
- Temporal self-Attention将History BEV feature和 current BEV feature通过 self-attention module进行融合。
- 通过上述两个模块,输出同时包含多视角和时序信息的BEV feature进一步用于下游3D检测和分割任务
- Det&Seg Head:用于特定任务的task head
BEVFormer训练优化
训练加速优化
我们从数据读取和减少内存拷贝消耗等角度对训练代码进行优化。
- 数据读取
- 使用更高效的图片解码库 turbojpeg
- BEVFormer在训练过程中,需要时序上的数据作为输入,将串形的读取方式优化为并行读取。
- 先做resize再做其他预处理,减少了额外像素带来的计算开销
- 内存拷贝优化
- 使用pin_memery=True,并修复了mmcv DataContainer pin_memory的bug
- 将代码中的numpy操作替换为torch.tensor,避免不必要的h2d拷贝
- other
- 使用torch.backends.cudnn.benchmark=True(ps:需要保证在输入数据没有动态性的情况下使用,否则反而会增加训练耗时)
- 修复了torch.cuda.amp混合精度在LayerNorm层失效的bug
我们在A100 80G的机器上,使用fp16对比吞吐量如下:
Setting | throughput(samples/s) |
BEVFormer-tiny bs=32 | 3.55 |
EasyCV BEVFormer-tiny bs=32 | 9.84(+177%) |
BEVFormer-base bs=5 | 0.727 |
EasyCV BEVFormer-base bs=5 | 0.8(+10%) |
精度收敛优化
我们使用额外的数据增广方式和不同的损失函数来优化模型。同时加入额外的训练策略来进一步提升模型收敛速度及精度。
- 数据增广方式
- rand scale(采用不同分辨率的输入进行训练,实验中发现该操作会引入至少20%的额外训练时间,因此在下述实验中,均没有采用)
- rand_flip(以50%的概率随机翻转图片)
- 损失函数
- 使用smooth l1 loss或 balance l1 loss代替l1 loss。(在mini dataset的实验中,这两个损失都可以提升精度,下面的实验中采用balance l1 loss)
- 训练策略
- 使用one2many Branch
这个做法来自于H-Deformable-DETR,在DETR系列的检测模型中采用one2one的匹配方式来分配GT Boxes,这种做法虽然让模型在测试的时候,能够避免冗余的NMS后处理操作,但是只有少数的Query会被分配给正样本,导致训练时模型收敛速度相比于one2many的方式会慢很多。因此,在训练过程中加入auxiliary Query,同一个GT Box会匹配多个auxiliary Query,并使用attention mask将one2one branch和one2many branch的信息隔离开。通过这样的方式,能够显著的提升训练过程中的收敛速度,同时在测试过程中只需要保持one2one branch进行预测。(在实验中,使用额外加入1800个auxiliary Query,每个GT box匹配4个query进行训练)
-
- CBGS in one2many Branch
我们的实验是在NuScenes数据集上进行的,在该数据集的3D检测任务上有10类标签,但是这10类标签之间的样本极度不均衡,很多算法会采用CBGS操作进行类间样本均衡,但是这个操作会将整个数据集扩大4.5倍,虽然有一定的精度提升,但是也带来了巨大的训练成本。我们考虑在one2many Branch上进行样本均衡操作,即对于实例数量较多的样本使用较少的auxiliary Query进行匹配,而对于长尾的样本使用较多的auxiliary Query进行匹配。通过CBGS in one2many Branch的方式,训练时间和base保持一致的基础上会进一步提升收敛速度,最终的精度也有一定的提升。(实验中匹配框数量变化:[4, 4, 4, 4, 4, 4, 4, 4, 4, 4] -> [2, 3, 7, 7, 9, 6, 7, 6, 2, 5])
我们在单机8卡A100 80G下进行实验,如下表所示:
config setting | NDS | mAP | throughput(samples/s) |
官方 BEVFormer-base | 52.44 | 41.91 | 3.289 |
EasyCV BEVFormer-base | 52.66 | 42.13 | 3.45 |
EasyCV BEVFormer-base-one2manybranch | 53.02(+0.58) | 42.48(+0.57) | 3.40 |
EasyCV BEVFormer-base-cbgs_one2manybranch | 53.28(+0.84) | 42.63(+0.72) | 3.41 |
模型收敛速度如下图所示:
由上图可以看出,使用上述优化方式可以大幅提升模型收敛速度,仅需要75%的训练时间就可以达到base的最终精度。同时最终的NDS相比于base也有0.8的提升。
详细配置,训练log和模型权重,参考:https://github.com/alibaba/EasyCV/blob/master/docs/source/model_zoo_det3d.md
在阿里云机器学习平台PAI上使用BEVFormer模型
PAI-DSW(Data Science Workshop)是阿里云机器学习平台PAI开发的云上IDE,面向各类开发者,提供了交互式的编程环境。在DSW Gallery中(链接),提供了各种Notebook示例,方便用户轻松上手DSW,搭建各种机器学习应用。我们也在DSW Gallery中上架了BEVFormer进行3D检测的Sample Notebook(见下图),欢迎大家体验!
使用PAI-Blade进行推理加速
PAI-Blade是由阿里云机器学习平台PAI开发的模型优化工具,可以针对不同的设备不同模型进行推理加速优化。PAI-Blade遵循易用性,鲁棒性和高性能为原则,将模型的部署优化进行高度封装,设计了统一简单的API,在完成Blade环境安装后,用户可以在不了解ONNX、TensorRT、编译优化等技术细节的条件下,通过简单的代码调用方便的实现对模型的高性能部署。更多PAI-Blade相关技术介绍可以参考 [PAI-Blade介绍]。
PAI-EasyCV中对Blade进行了支持,用户可以通过PAI-EasyCV的训练config 中配置相关export 参数,从而对训练得到的模型进行导出。
对于BEVFormer模型,我们在A100机器下进行进行推理速度对比,使用PAI-Blade优化后的模型能取得42%的优化加速。
Name | Backend | Median(FPS) | Mean(FPS) | Median(ms) | Mean(ms) |
easycv | TensorRT | 3.68697 | 3.68651 | 0.271226 | 0.271259 |
easycv script | TensorRT | 3.8131 | 3.79859 | 0.262254 | 0.26337 |
blade | TensorRT | 5.40248 | 5.23383(+42%) | 0.1851 | 0.192212 |
环境准备
我们提供一个PAI-Blade + PAI-EasyCV 的镜像包供用户可以直接使用,镜像包地址:easycv-blade-torch181-cuda111.tar
用户也可以基于Blade每日发布的镜像自行搭建推理环境 [PAI-Blade社区镜像发布]。
自行搭建环境时需要注意:BEVFomer-base使用resnet101-dcn作为image backbone,DCN算子使用的是mmcv中的自定义算子,为了导出TorchScript,我们对该接口进行了修改。所以mmcv需要源码编译。
- clone mmcv源码
$ git clone https://github.com/open-mmlab/mmcv.git
- 替换mmcv文件
替换时请注意mmcv的版本,注意接口要匹配。mmcv1.6.0版本已验证。
参考easycv/thirdparty/mmcv/目录下的修改文件。用mmcv/ops/csrc/pytorch/modulated_deform_conv.cpp和mmcv/ops/modulated_deform_conv.py去替换mmcv中的原文件。
- 源码编译
mmcv源码编译请参考:https://mmcv.readthedocs.io/en/latest/get_started/build.html
导出Blade模型
导出Blade的模型的配置可以参考文件bevformer_base_r101_dcn_nuscenes.py中的export字段,配置如下:
export = dict(
type='blade',
blade_config=dict(
enable_fp16=True,
fp16_fallback_op_ratio=0.0,
customize_op_black_list=[
'aten::select', 'aten::index', 'aten::slice', 'aten::view',
'aten::upsample', 'aten::clamp'
]
)
)
导出命令:
$ cd $EASYCV_ROOT
$ export PYTHONPATH='./'
$ python tools/export.py configs/detection3d/bevformer/bevformer_base_r101_dcn_nuscenes.py bevformer_base.pth bevformer_export.pth
Blade模型推理
推理脚本:
from easycv.predictors import BEVFormerPredictor
blade_model_path = 'bevformer_export.pth.blade'
config_file = 'configs/detection3d/bevformer/bevformer_base_r101_dcn_nuscenes.py'
predictor = BEVFormerPredictor(
model_path=blade_model_path,
config_file=config_file,
model_type='blade',
)
inputs_file = 'nuscenes_infos_temporal_val.pkl' # 以NuScenes val数据集文件为例
input_samples = mmcv.load(inputs_file)['infos']
predict_results = predictor(input_samples)
print(predict_results)
NuScenes数据集准备请参考:NuScenes数据集准备
展望
我们在EasyCV框架中,集成了BEVFormer算法,并从训练加速、精度收敛和推理加速角度对算法进行了一些改进。近期,也涌现了许多新的BEV感知算法,如BEVFormerv2。在BEVFormerv2中通过Perspective Supervision的方式,让算法能够不受限于使用一些在深度估计或3D检测上的预训练backbone,而直接使用近期更有效的大模型BackBone(如ConvNext、DCNv3等),同时采用two-stage的检测方式进一步增强模型能力,在Nuscenes数据集的camera-based 3D检测任务取得sota的结果。
本文为阿里云原创内容,未经允许不得转载。
以上是关于BEVFormer-accelerate:基于 EasyCV 加速 BEVFormer的主要内容,如果未能解决你的问题,请参考以下文章
E-DEEC基于matlab增强的分布式能源有效集群(E-DEEC)含Matlab源码 1566期