经典 backbone 总结

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了经典 backbone 总结相关的知识,希望对你有一定的参考价值。

目录

VGG

VGG网络结构参数表如下图所示。

ResNet

ResNet 模型比 VGG 网络具有更少的滤波器数量和更低的复杂性。 比如 Resnet34FLOPs3.6G,仅为 VGG-19 19.6G18%

ResNetVGG 的网络结构连接对比图,如下图所示。

不同层数的 Resnet 网络参数表如下图所示。

Inceptionv3

常见的一种 Inception Modules 结构如下:

Resnetv2

作者总结出恒等映射形式的快捷连接和预激活对于信号在网络中的顺畅传播至关重要的结论。

ResNeXt

ResNeXt 的卷积block 和 Resnet 对比图如下所示。

ResNeXt 和 Resnet 的模型结构参数对比图如下图所示。

Darknet53

Darknet53 模型结构连接图,如下图所示。

DenseNet

在密集块(DenseBlock)结构中,每一层都会将前面所有层 concate 后作为输入DenseBlock(类似于残差块的密集块结构)结构的 3 画法图如下所示:

可以看出 DenseNet 论文更侧重的是 DenseBlock 内各个卷积层之间的密集连接(dense connection)关系,另外两个则是强调每层的输入是前面所有层 feature map 的叠加,反映了 feature map 数量的变化。

CSPNet

**CSPDenseNet 的一个阶段是由局部密集块和局部过渡层组成(a partial dense block and a partial transition layer)**。

CSP 方法可以减少模型计算量和提高运行速度的同时,还不降低模型的精度,是一种更高效的网络设计方法,同时还能和 ResnetDensenetDarknetbackbone 结合在一起。

VoVNet

One-Shot Aggregation(只聚集一次)是指 OSA 模块的 concat 操作只进行一次,即只有最后一层($1\\times 1$ 卷积)的输入是前面所有层 feature map 的 concat(叠加)OSA 模块的结构图如图 1(b) 所示。

OSA module 中,每一层产生两种连接,一种是通过 conv 和下一层连接,产生 receptive field 更大的 feature map,另一种是和最后的输出层相连,以聚合足够好的特征。通过使用 OSA module543 channelsDenseNet-40MAC 可以被减少 30%3.7M -> 2.5M)。

基于 OSA 模块构建的各种 VoVNet 结构参数表如下。

作者认为 DenseNet 用更少的参数与 Flops 而性能却比 ResNet 更好,主要是因为concatadd 能保留更多的信息。但是,实际上 DenseNet 却比 ResNet要慢且消耗更多资源。

GPU 的计算效率:

  • GPU 特性是擅长 parallel computationtensor 越大,GPU 使用效率越高。
  • 把大的卷积操作拆分成碎片的小操作将不利于 GPU 计算。
  • 设计 layer 数量少的网络是更好的选择。
  • 1x1 卷积可以减少计算量,但不利于 GPU 计算。

在 CenterMask 论文提出了 VoVNetv2,其卷积模块结构图如下:

一些结论

  • 当卷积层的输入输出通道数相等时,内存访问代价(MAC)最小。
  • 影响 CNN 功耗的主要因素在于内存访问代价 MAC,而不是计算量 FLOPs。
  • GPU 擅长并行计算,Tensor 越大,GPU 使用效率越高,把大的卷积操作拆分成碎片的小操作不利于 GPU 计算。
  • 1x1 卷积可以减少计算量,但不利于 GPU 计算。

参考资料

以上是关于经典 backbone 总结的主要内容,如果未能解决你的问题,请参考以下文章

backbone--部分总结

理论恒叨立体匹配系列经典SGM:代价聚合(Cost Aggregation)

理论恒叨立体匹配系列经典SGM:匹配代价计算之Census变换

CV+Deep Learning——网络架构Pytorch复现系列——basenets(BackBones)

WIN32生产消费经典同步但是以消耗时间为代价

码上实战立体匹配系列经典AD-Census: 十字交叉域代价聚合