DeeplabV3+制作自己的VOC数据集使用指南
Posted walterj726
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了DeeplabV3+制作自己的VOC数据集使用指南相关的知识,希望对你有一定的参考价值。
目录
在自己电脑实现Deeplabv3+
首先要清楚图像分割和语义分割的不同
图像分割只需要根据某些规则分成若干个特定的区域,画出那个框来就OK了
但是语义分割的话,则还需要把实例(即人的轮廓)都分割出来,而且还要标识这些是不同的人
现在语义分割可以做到实例分割和全景分割
完成deeplabv3+的训练
- https://blog.csdn.net/malvas/article/details/90776327
- https://blog.csdn.net/malvas/article/details/88896283
如果要做一个自己的VOC数据集
问题
TensorFlow Allocation of 1511424000 exceeds 10% of system memory
https://blog.csdn.net/fuzzy__H/article/details/83757143
https://blog.csdn.net/qq_29015763/article/details/88783366
tf:failed to alloc 268435456 bytes on host: CUDA_ERROR_OUT_OF_MEMORY
https://blog.csdn.net/qq_26669719/article/details/88597682
## 忽略这些我做的笔记
添加池化层,会减少特征图像尺寸的损失
output_stride = 256/16
rate补0的个数不一样,空洞也不一样
拼接就是1*1的卷积
两步结合了
Xception-JFT
自己出问题就看看别人标注的文件
validation验证集
367,233,101
灰度图,不同的灰度对应不同的物体
标签就是ground——trouth掩模
预训练模型是什么???为什么要借助别人的
平衡问题,出现的多,出现的少
可以一定的修正,没有考虑这个问题
train_step = 1000几百先随便减少一下
crop_size = 部分的裁剪
480*360 --- 裁剪成很多321.321
batch_size = 4 降下来gpu降下来
480*360的话513*513是不太行的
宽是480,360,要反过来
训练次数加大,更精细
数据集比较少,图片比较少
几百次是全黑的
用smooth的区别
以上是关于DeeplabV3+制作自己的VOC数据集使用指南的主要内容,如果未能解决你的问题,请参考以下文章
使用labelImg制作自己的数据集(VOC2007格式)用于Faster-RCNN训练