用于语义分割的全卷积神经网络
Posted
技术标签:
【中文标题】用于语义分割的全卷积神经网络【英文标题】:Fully convolutional neural network for semantic segmentation 【发布时间】:2018-07-05 13:51:18 【问题描述】:我可能有一个幼稚的问题,如果这不是询问此类问题的适当渠道,我很抱歉。我已经成功实现了一个用于语义分割的 FCNN,但我不涉及反卷积或反池化层。
我所做的只是将地面实况图像的大小调整为最终 FCNN 层的大小,然后计算我的损失。通过这种方式,我获得了一个较小的图像作为输出,但正确分割。
是否需要反卷积或反池化过程?
我的意思是,在 python 中调整图像大小非常容易,那么为什么要涉及复杂的技术,如反卷积或反池化来做同样的事情呢?我肯定错过了什么。
使用 unpooling 和执行 deconv 放大图像有什么优势?
【问题讨论】:
【参考方案1】:卷积步骤后网络的输出小于原始图像:您可能不希望这样,您希望对作为输入的图像进行语义分割。
如果您只是将其调整为原始大小,则会插入新像素,因此缺乏精度。反卷积层允许学习这种调整大小(因为它们是在训练期间通过反向传播学习的),因此可以提高分割精度。
【讨论】:
我明白了。我目前正在使用这种技术。在我的情况下,我真的不觉得需要比通常的插值更精确。非常感谢您的评论。以上是关于用于语义分割的全卷积神经网络的主要内容,如果未能解决你的问题,请参考以下文章