(科普快餐)语义分割经典论文--6:MobileNetV2

Posted 幼儿园级科研人士

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了(科普快餐)语义分割经典论文--6:MobileNetV2相关的知识,希望对你有一定的参考价值。

MobileNetV2: Inverted Residuals and Linear Bottlenecks(CVPR2018)

论文地址:https://arxiv.org/abs/1801.04381


MobileNet v2网络是由google团队在2018年提出的,相比MobileNet V1网络,准确率更高,模型更小。

网络中的亮点

  • Inverted Residuals (倒残差结构 )
  • Linear Bottlenecks(结构的最后一层采用线性层)

到残差结构图如下:

 一些对比结构图:

 这么做的原因是在 ResNet 中,使用的是标准的卷积层,如果不先用 1x1 conv 降低通道数,中间的 3x3 conv 计算量太大。因此,我们一般称这种 Residual Block 为 Bottleneck Block,即两头大中间小。但是在 MobileNet V2 中,中间的 3x3 conv 是深度级可分离卷积,计算量相比于标准卷积小很多,因此,为了提取更多特征,我们先用 1x1 conv 提升通道数,最后再用 1x1 conv 把通道数降下来,形成一种两头小中间大的模块,这与 Residual Block 是相反的。

另外说明一点,使用 1x1 conv 的网络结构将高维空间映射到低维空间的设计称之为 Bottleneck layer。

在之前的ResNet残差结构是先用1x1的卷积降维,再升维的操作。而在MobileNetV2中,是先升维,在降维的操作。

所以对于ResNet残差结构是两头大,中间小。而对于MobileNetV2结构是中间大,两头小的结构。

 其中,在MobileNet结构中,采用了新的激活函数:ReLU6

一个解释是,ReLU激活函数对于低维的信息可能会造成比较大的瞬损失,而对于高维的特征信息造成的损失很小。而且由于倒残差结构是两头小中间大,所以输出的是一个低维的特征信息。所以使用一个线性的激活函数避免特征损失。

以上是关于(科普快餐)语义分割经典论文--6:MobileNetV2的主要内容,如果未能解决你的问题,请参考以下文章

引用量超1400的经典语义分割方法BiSeNet解读

轻量级语义分割模型论文阅读笔记

关于图像语义分割的总结和感悟

关于图像语义分割的总结和感悟

图像语义分割之FCN和CRF

图像语义分割之FCN和CRF