如何提高 Python 中图像分类 keras 模型的准确性?

Posted

技术标签:

【中文标题】如何提高 Python 中图像分类 keras 模型的准确性?【英文标题】:How can I increase the accuracy of my image classification keras model in Python? 【发布时间】:2018-10-05 05:00:12 【问题描述】:

我正在尝试将一组蜜蜂图像分为两类 - 大黄蜂和蜜蜂,结果格式为 CSV 文件,例如 -

id,bumble_bee,honey_bee

20000,0.75, 0.25.

我有一个正在运行的模型,但准确度非常低,我尝试了很多不同的方法,例如添加 VGG16 或 InceptionV3 之类的 base_model、调整 epoch、调整优化器类型......我只是没有没有注意到太大的不同。我所做的所有更改仍然导致准确率在 70-79% 左右。

如何提高模型的准确性?

这是我的代码:

from keras.preprocessing.image import ImageDataGenerator
from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D
from keras.layers import Activation, Dropout, Flatten, Dense
from keras import backend as K

# dimensions of our images.
img_width, img_height = 200, 200

train_data_dir = 'data/train/'
validation_data_dir = 'data/validation/'
nb_train_samples = 2978
nb_validation_samples = 991
epochs = 50
batch_size = 25

if K.image_data_format() == 'channels_first':
    input_shape = (3, img_width, img_height)
else:
    input_shape = (img_width, img_height, 3)

model = Sequential()
model.add(Conv2D(32, (3, 3), input_shape=input_shape))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Flatten())
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(2))
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy',
              optimizer=optimizers.SGD(lr=1e-4, momentum=0.9),
              metrics=['accuracy'])

# this is the augmentation configuration we will use for training
train_datagen = ImageDataGenerator(
    rescale=1. / 255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)

# this is the augmentation configuration we will use for testing:
# only rescaling
test_datagen = ImageDataGenerator(rescale=1. / 255)

train_generator = train_datagen.flow_from_directory(
    train_data_dir,
    target_size=(img_width, img_height),
    batch_size=batch_size,
    class_mode='categorical')

validation_generator = test_datagen.flow_from_directory(
    validation_data_dir,
    target_size=(img_width, img_height),
    batch_size=batch_size,
    class_mode='categorical')

model.fit_generator(
    train_generator,
    steps_per_epoch=nb_train_samples // batch_size,
    epochs=epochs,
    validation_data=validation_generator,
    validation_steps=nb_validation_samples // batch_size)

model.save_weights('thirdtry.h5')

pred = model.predict(pred_images)
np.savetxt('resultsfrom3no.csv',pred)

这是它的输出示例:

找到属于 2 个类别的 2978 张图片。 找到属于 2 个类别的 991 张图片。

纪元 1/50 119/119 [==============================] - 238s 2s/step - loss: 0.5570 - acc: 0.7697 - val_loss: 0.5275 - val_acc: 0.7908

纪元 2/50 119/119 [=============================] - 237s 2s/步 - 损失:0.5337 - acc:0.7894 - val_loss:0.5270 - val_acc: 0.7908

纪元 3/50 119/119 [==============================] - 282s 2s/步 - 损失:0.5299 - acc:0.7939 - val_loss:0.5215 - val_acc: 0.7908

【问题讨论】:

你有没有考虑过分类任务实际上太难的可能性?据我所知,人类很难注意到这种特殊的差异。有没有办法获取更多数据?是否有任何错误分类(噪音)? 训练精度在几个 epoch 之后是否也会停滞不前?显示训练/验证结果。你只有 119 个样本要训练吗? @KonstantinosKokos - 准确性、验证准确性、验证损失和损失通常在整个时间内停滞不前。 119 是因为有 2978 个训练样本,batch size 为 25(2978/25 = 119.12)。 @Henry - 生成器应该有助于创建更多数据。 @kaecvtionr 我看到了图像生成器,但可能性仍然存在。我意识到我并不是很有帮助:) 【参考方案1】:

使用图像网络预训练的 VGGNet 进行特征提取,并在其之上使用 Dense 层构建分类器。您应该将图像大小 (w x h) 设置为原始网络输入。

由于你只有两个类,数据生成器最好使用二元类模式,二元交叉熵作为损失函数,sigmoid 作为最终激活函数。

首先尝试不使用数据增强进行快速测试,然后使用增强来查看是否有帮助。

在训练您的分类器网络时,分别从较高的学习率(例如 0.001)开始,如果 acc 值被固定,则尝试较低的学习率(1e-4、1e-5 等)。

同样在您的代码中,降低学习率并使用动量值可能会有所帮助。

【讨论】:

以上是关于如何提高 Python 中图像分类 keras 模型的准确性?的主要内容,如果未能解决你的问题,请参考以下文章

Keras中图像分割的像素损失权重

用于 Numpy 数组中图像的图像数据生成器

计算机视觉中图像分类任务脉络梳理

matlab中图像旋转

使用Python,Keras和TensorFlow训练第一个CNN

使用Python,Keras和TensorFlow训练第一个CNN