图像每像素场景标注输出问题(使用 FCN-32s 语义分割)
Posted
技术标签:
【中文标题】图像每像素场景标注输出问题(使用 FCN-32s 语义分割)【英文标题】:Image per-pixel Scene labeling output issue (using FCN-32s Semantic Segmentation) 【发布时间】:2015-12-03 19:01:11 【问题描述】:我正在寻找一种方法,在给定输入图像和神经网络的情况下,它将为图像中的每个像素(天空、草、山、人、汽车等)输出一个标记类。
我已设置 Caffe(未来分支)并成功运行 FCN-32s Fully Convolutional Semantic Segmentation on PASCAL-Context 模型。但是,我无法用它生成清晰的标记图像。
形象化我的问题的图像: 输入图片 基本事实 而我的结果:
这可能是一些分辨率问题。知道我哪里出错了吗?
【问题讨论】:
【参考方案1】:32s 模型似乎取得了长足的进步,因此以粗略的分辨率工作。你能试试8s model,它似乎减少了分辨率。 看看J Long, E Shelhamer, T Darrell Fully Convolutional Networks for Semantic Segmentation, CVPR 2015(尤其是图 4),32s 模型似乎不是为捕获细分的精细细节而设计的。
【讨论】:
谢谢!这似乎起到了作用。我现在取得了不错的成绩。 @irri 由 shelhamer 训练的 8 步长模型对你有用吗? gist.github.com/shelhamer/91eece041c19ff8968ee @Shai:你能回答What is “semantic segmentation” compared to “segmentation” and “scene labeling”?吗? @Martin Thoma 常规分割将图像分割成有用的块。语义分割将图像分割成有用的块,并准确标记这些块是什么。换句话说,常规分割的想法可能会分别勾勒出椅子和狗的轮廓,但您不会知道它们各自是什么。通过语义分割,每一个都将被分开并适当地标记为“椅子”和“狗”。 @AndrewHundt - 此评论属于处理分割与语义分割的另一个线程。以上是关于图像每像素场景标注输出问题(使用 FCN-32s 语义分割)的主要内容,如果未能解决你的问题,请参考以下文章