Python Keras导入训练集验证集测试集,并进行数据预处理

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python Keras导入训练集验证集测试集,并进行数据预处理相关的知识,希望对你有一定的参考价值。

参考技术A import os

import numpy as np

from tqdm import tqdm #进度条

from glob import glob

from scipy import ndimage

from keras.preprocessing.image import ImageDataGeneratior

import keras

img_size = 255 # 自行更改

train_path = r'D:\CVML\Project\Heartchallenge_sound\Peter_HeartSound\Train_Valid_Test\train'

num_train = len( glob (train_path + r'**.jpg') ) #图片数量

x_train = np.zeros( (num_train, img_size, img_size, 3), dtype=np.uint8) #训练集

y_train = np.zeros( (num_train,), dtype=np.uint8) #训练集label

i=0

for img_path in tqdm( glob(train_path + r'**.jpg) ):

datagen = ImageDataGenerator(rescale = 1.0/255.0, featurewise_center = True, featurewise_std_normalization= True)

datagen.fit(x_train) #图片预处理

待解决问题: 如何输入??

规范化 Keras 中神经网络的验证集

【中文标题】规范化 Keras 中神经网络的验证集【英文标题】:Normalize the Validation Set for a Neural Network in Keras 【发布时间】:2017-12-31 06:46:53 【问题描述】:

所以,我知道标准化对于训练神经网络很重要。

我也明白我必须使用训练集的参数对验证集和测试集进行规范化(例如,参见此讨论:https://stats.stackexchange.com/questions/77350/perform-feature-normalization-before-or-within-model-validation)

我的问题是:我如何在 Keras 中做到这一点?

我目前正在做的是:

import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.callbacks import EarlyStopping

def Normalize(data):
    mean_data = np.mean(data)
    std_data = np.std(data)
    norm_data = (data-mean_data)/std_data
    return norm_data

input_data, targets = np.loadtxt(fname='data', delimiter=';')
norm_input = Normalize(input_data)

model = Sequential()
model.add(Dense(25, input_dim=20, activation='relu'))
model.add(Dense(1, activation='sigmoid'))

model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

early_stopping = EarlyStopping(monitor='val_acc', patience=50) 
model.fit(norm_input, targets, validation_split=0.2, batch_size=15, callbacks=[early_stopping], verbose=1)

但在这里,我首先对数据进行标准化 w.r.t.整个数据集然后然后拆分验证集,根据上述讨论,这是错误的。

从训练集(training_mean 和 training_std)中保存均值和标准差并不是什么大不了的事,但是如何分别在验证集上应用 training_mean 和 training_std 的归一化?

【问题讨论】:

【参考方案1】:

以下代码完全符合您的要求:

import numpy as np
def normalize(x_train, x_test):
    mu = np.mean(x_train, axis=0)
    std = np.std(x_train, axis=0)
    x_train_normalized = (x_train - mu) / std
    x_test_normalized = (x_test - mu) / std
    return x_train_normalized, x_test_normalized

然后你可以像这样在 keras 中使用它:

from keras.datasets import boston_housing
(x_train, y_train), (x_test, y_test) = boston_housing.load_data()
x_train, x_test = normalize(x_train, x_test)

丰益的答案不正确。

【讨论】:

【参考方案2】:

在使用 sklearn.model_selection.train_test_split 拟合模型之前,您可以手动将数据拆分为训练和测试数据集。然后,根据训练数据的均值和标准差对训练和测试数据进行归一化。最后,使用validation_data 参数调用model.fit

代码示例

import numpy as np
from sklearn.model_selection import train_test_split

data = np.random.randint(0,100,200).reshape(20,10)
target = np.random.randint(0,1,20)

X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.2)

def Normalize(data, mean_data =None, std_data =None):
    if not mean_data:
        mean_data = np.mean(data)
    if not std_data:
        std_data = np.std(data)
    norm_data = (data-mean_data)/std_data
    return norm_data, mean_data, std_data

X_train, mean_data, std_data = Normalize(X_train)
X_test, _, _ = Normalize(X_test, mean_data, std_data)

model.fit(X_train, y_train, validation_data=(X_test,y_test), batch_size=15, callbacks=[early_stopping], verbose=1)

【讨论】:

几乎正确 - 您需要使用相同的均值和 sigma(从 X_train 计算)来 Normalize() X_train 和 X_test - 正如@hans 所指出的那样 @jtlz2:你完全正确,我编辑了答案。好电话!

以上是关于Python Keras导入训练集验证集测试集,并进行数据预处理的主要内容,如果未能解决你的问题,请参考以下文章

为啥在 Keras 中使用前馈神经网络进行单独的训练、验证和测试数据集可以获得 100% 的准确率?

Keras,训练期间验证集上的 auc 与 sklearn auc 不匹配

在 Keras for Python 中选择测试和训练集

Keras猫狗大战五:采用全部数据集训练,精度提高到90%

验证码是怎么被机器识别的?Keras+CNN模型验证码识别详解

数据集拆分:训练集、验证集、测试集