如何提高 Python 中图像分类 keras 模型的准确性?
Posted
技术标签:
【中文标题】如何提高 Python 中图像分类 keras 模型的准确性?【英文标题】:How can I increase the accuracy of my image classification keras model in Python? 【发布时间】:2018-10-05 05:00:12 【问题描述】:我正在尝试将一组蜜蜂图像分为两类 - 大黄蜂和蜜蜂,结果格式为 CSV 文件,例如 -
id,bumble_bee,honey_bee
20000,0.75, 0.25.
我有一个正在运行的模型,但准确度非常低,我尝试了很多不同的方法,例如添加 VGG16 或 InceptionV3 之类的 base_model、调整 epoch、调整优化器类型......我只是没有没有注意到太大的不同。我所做的所有更改仍然导致准确率在 70-79% 左右。
如何提高模型的准确性?
这是我的代码:
from keras.preprocessing.image import ImageDataGenerator
from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D
from keras.layers import Activation, Dropout, Flatten, Dense
from keras import backend as K
# dimensions of our images.
img_width, img_height = 200, 200
train_data_dir = 'data/train/'
validation_data_dir = 'data/validation/'
nb_train_samples = 2978
nb_validation_samples = 991
epochs = 50
batch_size = 25
if K.image_data_format() == 'channels_first':
input_shape = (3, img_width, img_height)
else:
input_shape = (img_width, img_height, 3)
model = Sequential()
model.add(Conv2D(32, (3, 3), input_shape=input_shape))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(2))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy',
optimizer=optimizers.SGD(lr=1e-4, momentum=0.9),
metrics=['accuracy'])
# this is the augmentation configuration we will use for training
train_datagen = ImageDataGenerator(
rescale=1. / 255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True)
# this is the augmentation configuration we will use for testing:
# only rescaling
test_datagen = ImageDataGenerator(rescale=1. / 255)
train_generator = train_datagen.flow_from_directory(
train_data_dir,
target_size=(img_width, img_height),
batch_size=batch_size,
class_mode='categorical')
validation_generator = test_datagen.flow_from_directory(
validation_data_dir,
target_size=(img_width, img_height),
batch_size=batch_size,
class_mode='categorical')
model.fit_generator(
train_generator,
steps_per_epoch=nb_train_samples // batch_size,
epochs=epochs,
validation_data=validation_generator,
validation_steps=nb_validation_samples // batch_size)
model.save_weights('thirdtry.h5')
pred = model.predict(pred_images)
np.savetxt('resultsfrom3no.csv',pred)
这是它的输出示例:
找到属于 2 个类别的 2978 张图片。 找到属于 2 个类别的 991 张图片。
纪元 1/50 119/119 [==============================] - 238s 2s/step - loss: 0.5570 - acc: 0.7697 - val_loss: 0.5275 - val_acc: 0.7908
纪元 2/50 119/119 [=============================] - 237s 2s/步 - 损失:0.5337 - acc:0.7894 - val_loss:0.5270 - val_acc: 0.7908
纪元 3/50 119/119 [==============================] - 282s 2s/步 - 损失:0.5299 - acc:0.7939 - val_loss:0.5215 - val_acc: 0.7908
【问题讨论】:
你有没有考虑过分类任务实际上太难的可能性?据我所知,人类很难注意到这种特殊的差异。有没有办法获取更多数据?是否有任何错误分类(噪音)? 训练精度在几个 epoch 之后是否也会停滞不前?显示训练/验证结果。你只有 119 个样本要训练吗? @KonstantinosKokos - 准确性、验证准确性、验证损失和损失通常在整个时间内停滞不前。 119 是因为有 2978 个训练样本,batch size 为 25(2978/25 = 119.12)。 @Henry - 生成器应该有助于创建更多数据。 @kaecvtionr 我看到了图像生成器,但可能性仍然存在。我意识到我并不是很有帮助:) 【参考方案1】:使用图像网络预训练的 VGGNet 进行特征提取,并在其之上使用 Dense 层构建分类器。您应该将图像大小 (w x h) 设置为原始网络输入。
由于你只有两个类,数据生成器最好使用二元类模式,二元交叉熵作为损失函数,sigmoid 作为最终激活函数。
首先尝试不使用数据增强进行快速测试,然后使用增强来查看是否有帮助。
在训练您的分类器网络时,分别从较高的学习率(例如 0.001)开始,如果 acc 值被固定,则尝试较低的学习率(1e-4、1e-5 等)。
同样在您的代码中,降低学习率并使用动量值可能会有所帮助。
【讨论】:
以上是关于如何提高 Python 中图像分类 keras 模型的准确性?的主要内容,如果未能解决你的问题,请参考以下文章