尝试使用 40x40px 图像自定义训练 MobilenetV2 - 训练后结果错误
Posted
技术标签:
【中文标题】尝试使用 40x40px 图像自定义训练 MobilenetV2 - 训练后结果错误【英文标题】:Trying to custom train MobilenetV2 with 40x40px images - wrong results after training 【发布时间】:2020-11-08 17:56:45 【问题描述】:我需要将小图像分为 4 个不同类别,+1“背景”用于错误检测。
在训练时损失迅速下降到 0.7,但即使在 800k 步后仍保持在该水平。最后,冻结图似乎用背景标签对大多数图像进行了分类。
我可能遗漏了一些东西,我将在下面详细说明我使用的步骤,欢迎提供任何反馈。 我是 tf-slim 的新手,所以这可能是一个明显的错误,也许样本太少了?我不是在寻找最高的准确性,只是为了原型设计。
源材料可以在这里找到:https://www.dropbox.com/s/k55xoygdzb2efag/TilesDataset.zip?dl=0
我在 Windows 10 上使用了 tensorflow-gpu 1.15.3。
我使用以下方法创建了数据集:
python ./createTfRecords.py --tfrecord_filename=tilesV2_40 --dataset_dir=.\tilesV2\Tiles_40
我在 models-master\research\slim\datasets 中添加了一个基于鲜花提供者的数据集提供者。
我修改了 models-master\research\slim\nets\mobilenet 中的 mobilnet_v2.py,更改了 num_classes=5 和 mobilenet.default_image_size = 40
我用 python ./models-master/research/slim/train_image_classifier.py --model_name "mobilenet_v2" --learning_rate 0.045 --preprocessing_name "inception_v2" --label_smoothing 0.1 --moving_average_decay 0.9999 --batch_size 96 --learning_rate_decay_factor 0.98 --num_epochs_per_decay 2.5 --train_dir ./weight --dataset_name Tiles_40 --dataset_dir .\tilesV2\Tiles_40
训练了网络
当我尝试这个python .\models-master\research\slim\eval_image_classifier.py --alsologtostderr --checkpoint_path ./weight/model.ckpt-XXX --dataset_dir ./tilesV2/Tiles_40 --dataset_name Tiles_40 --dataset_split_name validation --model_name mobilenet_v2
我得到eval/Recall_5[1]eval/Accuracy[1]
然后我用python .\models-master\research\slim\export_inference_graph.py --alsologtostderr --model_name mobilenet_v2 --image_size 40 --output_file .\export\output.pb --dataset_name Tiles_40
导出图表
然后用freeze_graph --input_graph .\export\output.pb --input_checkpoint .\weight\model.ckpt-XXX --input_binary true --output_graph .\export\frozen.pb --output_node_names MobilenetV2/Predictions/Reshape_1
冻结它
然后,我使用来自 python .\label_image.py --graph .\export\frozen.pb --labels .\tilesV2\Tiles_40\labels.txt --image .\tilesV2\Tiles_40\photos\lac\1_1.png --input_layer input --output_layer MobilenetV2/Predictions/Reshape_1
的数据集的图像尝试网络。 这是我得到错误分类的地方。,
比如 0:background 0.92839915 2:lac 0.020171663 1:house 0.019106707 3:road 0.01677236 4:start 0.0155500565
获取数据集的“lac”图像
我尝试更改 depth_multiplier、学习率、在 cpu 上学习、从学习命令中删除 --preprocessing_name "inception_v2"
。我没有任何想法......
【问题讨论】:
【参考方案1】:改变你的学习率,也许从通常的选择 3e-5 开始。
【讨论】:
谢谢,我正在试一试,我使用的值来自那里 github.com/tensorflow/models/tree/master/research/slim/nets/…moving_average_decay 0.9999
是不是已经很低了? (如接近 1)
如果你也可以选择做一些正则化,比如 dropout。我建议也这样做。关于衰变,仅根据原始命令保留它们。首先玩一下学习率。另外,我误解了这个因素实际上是 (1 - f)。
如果您可以增加图像大小,那也很棒。 MobileNet 需要 224x224 并且您的数据大小太小。也许也尝试增加这个。
学习率有问题,它非常快地下降到非常低的水平(比如 10k 步后的 1e-30)。解决一个问题,谢谢。我无法获得更高分辨率的图片,因为它们是从 720x480 的图片中提取的。它们非常不同(参见imgur.com/Ex2AFAD 示例)。我的印象是通过自定义训练我可以使用自定义图像大小? (我在模型描述中指定了 40px,我是不是少了一个步骤?)
如果你不能改变大小,那么模型就必须适应你的数据。以上是关于尝试使用 40x40px 图像自定义训练 MobilenetV2 - 训练后结果错误的主要内容,如果未能解决你的问题,请参考以下文章
加载图像时使用 iOS 中的 Kingfisher 库进行图像优化?
如何使用混淆矩阵计算自定义训练的 spacy ner 模型的整体准确性?