OpenMMLab 实战营打卡 - 第 六 课 语义分割

Posted 苦瓜汤补钙

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了OpenMMLab 实战营打卡 - 第 六 课 语义分割相关的知识,希望对你有一定的参考价值。

(六)什么是语义分割?把像素进行分类。OpenMMLab AI实战营 第6课

文章目录

前言

一、什么是语义分割?

语义分割的应用

语义分割 vs 实例分割 vs 全景分割

 二、语义分割的基本思路

1.按颜色分割

 2.逐像素分类

3.改进:复用卷积计算

4.再改进:全连接层的卷积化

(1)全卷积网络 Fully Convolutional Network 2015

(2)预测图的升采样

​编辑

(3)基于多层级特征的上采样

三、上下文信息

1.上下文的重要性

 2.获取上下文信息

3.PSPNet 2016

四、空洞卷积与 DeepLab 系列算法

1.DeepLab 系列

2.空洞卷积解决下采样问题

 空洞卷积和下采样

 3.DeepLab 模型

 4.条件随机场 Conditional Random Field, CRF

 能量函数的意义

 5.空间金字塔池化 Atrous Spatial Pyramid Pooling ASPP

 6.DeepLab v3+

 7.语义分割算法总结

 五、语义分割模型的评估

1.比较预测与真值

 2.基于交并集的评估指标

 六、语义分割工具包 MMSegmentation

1.项目结构

2.分割模型的模块化设计

3.ResNet v1c

总结


前言

    OpenMMLab AI实战营第六课!语义分割是目标检测和图像分类的进阶工作,它在像素级别给图像内容做标注,把图片中不同的物体分割开。本课会带大家去学习语义分割工具箱 MMSegmentation ,课程链接:6 语义分割算法基础_哔哩哔哩_bilibili


一、什么是语义分割?

    语义分割就是把一个图像上所有像素都把它归类进行分类,从宏观上来看就是抠图的效果。所以表面上来看,它是图像分割,但本质上是像素密度的图像分类。

  •   任务:将图像按照物体的类别分割成不同的区域
  •   等价于:对每个像素进行分类

语义分割的应用

    语义分割应用广泛,特别是在医疗影像和自动驾驶领域。对于无人驾驶汽车需要以像素的力度感知周围的环境,对于医疗影像而言需要以像素的力度去定位病变区域。

    自动驾驶车辆,会将行人,其他车辆,行车道,人行道、交通标志、房屋、草地与树木等等按照类别在图像中分割出来,从而辅助车辆对道路的情况进行识别与认知。


 

    医疗影像分析,通过图像分割技术,辅助进行 医疗诊断。如右图,识别脑部 肿瘤异物的位置。

    在很多的互联网应用中具有人像抠图功能,人像抠图其实就是语义分割。如果是在线会议就是实时的语义分割,实时替换视频的背景,在智慧互娱和智能会议场景中,可以通过这种方法增加交互的多样性。人像和背景就是两个类别。

     在智能遥感的应用,分辨地表物体的类别,通过右侧分割之后的图像可以看到,红色的部分属于湖泊水流。通过智能遥感能够监测不同季节地表水域的变化,从而辅助农业生产,以及旱灾洪灾的预测等等。

语义分割 vs 实例分割 vs 全景分割

     语义分割只管类别,如果有两个物体重合了,语义分割的结果仍是一大片,它不管这是一个物体还是两个物体。

    实例分割是在语义分割的基础上,要去区分每一个物体,每一只🐏尽管它们类别相同,但是要区分开。如果两只🐏遮挡了彼此,实例分割仍会给出两个物体(两只🐏)的抠图结果。

    全景分割就是仅考虑类别,前景需要区分实体。我们所说的无人驾驶实际上是全景分割。

 二、语义分割的基本思路

1.按颜色分割

    最早期的语义分割就是按照颜色分割,一个块就是一个物体。按照不同的分层,我们可以获得层次的这种颜色分割图。只按照颜色分割效果很差,先验知识不完全准确。我们需要额外的手段确定物体类别,所以这是一种最朴素最初级的方法。

 2.逐像素分类

    后来有了卷积神经网络,开始按照像素分类。我们把某个像素周围的这个小窗口当成是一张图像,我们把这张图像输入到分类模型里面,给出一个类别作为这个滑窗的这个窗口中间像素的类别结果。只有我们就是实现了像素分类,这种方式称之为滑动窗口。我们用不同尺寸不同大小不同长宽,然后在图像上滑动窗口,每滑动一次就输入到卷积神经网络里面去进行一次类别预测,于是将每一个像素都划一遍就获得了每一个像素的分类结果。滑动窗口无法复用,效率低下。

3.改进:复用卷积计算

    把全图输入到卷积神经网络里面,在全图得到的feature map上再运行滑窗,这样至少能让所有的滑窗都共享这个feature map,很好的降低了计算。

4.再改进:全连接层的卷积化

(1)全卷积网络 Fully Convolutional Network 2015

    可以兼容任意尺寸的图像输入,最终可以得到某一个类别的特征图,代表这个类别的语义分割结果,我们就把分类网络转成了分割网络。

(2)预测图的升采样

问题: 图像分类模型使用降采样层(步长卷积或池化)获得高层次特征,导致全卷积网络输出尺寸小于原图,而分割要求同尺寸输出。

解决方法: 对预测的分割图升采样,恢复原图分辨率,升采样方案:

  • 双线性插值
  • 转置卷积:可学习的升采样层

全卷积网络的预测与训练

(3)基于多层级特征的上采样

问题:基于顶层特征预测,再升采样 32 倍得到的预测图较为粗糙。

分析:高层特征经过多次降采样,细节丢失严重。

解决思路:结合低层次和高层次特征图。

    解决方案 FCN: 基于低层次和高层次特征图分别产生类别预测,升采样到原图大小,再平均得到最终结果。

     解决方案 UNet: 逐级融合高低层次特征。

三、上下文信息

1.上下文的重要性

    有歧义的区域:如何肯定图像里的物体到底是什么?

     图像周围的内容(也称上下文)可以帮助我们做出更准确的判断。

 2.获取上下文信息

    方案:增加感受野更大的网络分支, 将上下文信息导入局部预测中。

3.PSPNet 2016

  • 对特征图进行不同尺度的池化,得到不同尺度的上下文特征
  • 上下文特征经过通道压缩和空间上采样之后拼接回原特征图 → 同时包含局部和上下文特征
  • 基于融合的特征产生预测图

四、空洞卷积与 DeepLab 系列算法

1.DeepLab 系列

    DeepLab 是语义分割的又一系列工作,其主要贡献为:

  • 使用空洞卷积解决网络中的下采样问题
  • 使用条件随机场 CRF 作为后处理手段,精细化分割图
  • 使用多尺度的空洞卷积(ASPP 模块)捕捉上下文信息

    DeepLab v1 发表于 2014 年,后于 2016、2017、2018 年提出 v2、v3、v3+ 版本。

2.空洞卷积解决下采样问题

    图像分类模型中的下采样层使输出尺寸变小。

    如果将池化层和卷积中的步长去掉:

  • 可以减少下采样的次数;
  • 特征图就会变大,需要对应增大卷积核,以维持相同的感受野,但会增加大量参数
  • 使用空洞卷积(Dilated Convolution/Atrous Convolution),在不增加参数的情况下增大感受野

 空洞卷积和下采样

 3.DeepLab 模型

    DeepLab 在图像分类网络的基础上做了修改:

  • 去除分类模型中的后半部分的下采样层
  • 后续的卷积层改为膨胀卷积,并且逐步增加rate来维持原网络的感受野

 4.条件随机场 Conditional Random Field, CRF

    模型直接输出的分割图较为粗糙,尤其在物体边界处不能产生很好的分割结果。

    DeepLab v1&v2 使用条件随机场 (CRF) 作为后处理手段,结合原图颜色信息和神经网络预测的类别得到精细化分割结果。

    CRF 是一种概率模型。DeepLab 使用 CRF 对分割结果进行建模,用能量函数用来表示分割结果优劣,通过最小化能量函数获得更好的分割结果。

 能量函数的意义

 5.空间金字塔池化 Atrous Spatial Pyramid Pooling ASPP

    PSPNet 使用不同尺度的池化来获取不同尺度的上下文信息。

    DeepLab v2 & v3 使用不同尺度的空洞卷积达到类似的效果。

 6.DeepLab v3+

  • DeepLab v2 / v3 模型使用 ASPP 捕捉上下文特征
  • Encoder / Decoder 结构(如 UNet) 在上采样过程中融入低层次的特征图,以获得更精细的分割图
  • DeepLab v3+ 将两种思路融合,在原有模型结构上增加了一个简单的 decoder 结构

 7.语义分割算法总结

 五、语义分割模型的评估

1.比较预测与真值

 2.基于交并集的评估指标

 六、语义分割工具包 MMSegmentation

  代码库: https://github.com/open-mmlab/mmsegmentation

  文档: https://mmsegmentation.readthedocs.io/en/latest/

  MMSegmentation算法丰富,20+ 算法、370+ 预训练模型,统一超参,全面的性能标定。

1.项目结构

 2.分割模型的模块化设计

    MMSegmentation 将分割模型统一拆解为如下模块,方便用户根据自己的需求进行组装和扩展。

 (1)分割模型的配置文件

model = dict(
    type='EncoderDecoder' OR 'CascadeEncoderDecoder', 
    pretrained='open-mmlab://resnet50_v1c',
    backbone=dict(
        type='ResNetV1c',
        # ... more options),
    neck = None,
    decode_head=dict(
        type='PSPHead',
        # ... more options
        loss_decode=dict(
            type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0)),
    auxiliary_head=dict(
        type='FCNHead',
        # ... more options
        loss_decode=dict(
            type='CrossEntropyLoss', use_sigmoid=False, loss_weight=0.4)),
    train_cfg=dict(...),
    test_cfg=dict(...))

(2)主干网络的配置。主干网络输入图像,输出多层次的特征图。

backbone=dict(
    type='ResNetV1c',
    depth=50,
    num_stages=4,
    out_indices=(0, 1, 2, 3),
    dilations=(1, 1, 2, 4),
    strides=(1, 2, 1, 1),
    norm_cfg= dict(type='SyncBN', requires_grad=True),
    norm_eval=False,
    style='pytorch',
    contract_dilation=True)

3.ResNet v1c

    ResNet 50 层以上的模型在 BottleNeck 模块以及 stem 部分(即网络前几层)有一些变形:

 (1)主解码头的配置。主解码头从特征图预测分割图。

decode_head=dict(
    type='PSPHead',
    in_channels=2048,
    in_index=3,
    channels=512,
    pool_scales=(1, 2, 3, 6),
    dropout_ratio=0.1,
    num_classes=19,
    norm_cfg= dict(type='SyncBN', requires_grad=True),
    align_corners=False,
    loss_decode=dict(
        type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0)),

(2)辅助解码头的配置

auxiliary_head=dict(
    type='FCNHead',
    in_channels=1024,
    in_index=2,
    channels=256,
    num_convs=1,
    concat_input=False,
    dropout_ratio=0.1,
    num_classes=19,
    norm_cfg=norm_cfg,
    align_corners=False,
    loss_decode=dict(
        type='CrossEntropyLoss', use_sigmoid=False, loss_weight=0.4)),

(3)数据集配置

dataset_type = 'CityscapesDataset'
data_root = 'data/cityscapes/'
data = dict(
    samples_per_gpu=2,
    workers_per_gpu=2,
    train=dict(
        type=dataset_type,
        data_root=data_root,
        img_dir='leftImg8bit/train',
        ann_dir='gtFine/train',
        pipeline=train_pipeline),
    val=dict(...),
    test=dict(...))

(4)数据处理流水线

 (5)常用训练策略


总结

    以上就是今天的内容,本文仅仅简单介绍了图像分割及基本算法,而图像分割算法不断更新且种类方法等待我们不断学习与探索。

以上是关于OpenMMLab 实战营打卡 - 第 六 课 语义分割的主要内容,如果未能解决你的问题,请参考以下文章

OpenMMLab 实战营打卡 - 第 五 课

OpenMMLab 实战营打卡 - 第 5 课

OpenMMLab 实战营打卡 - 第 三 课

OpenMMLab 实战营打卡 - 第 7 课

OpenMMLab 实战营打卡-第5课

OpenMMLab 实战营打卡 - 第 二 课