在 GridSearchCV 中显式指定测试/训练集
Posted
技术标签:
【中文标题】在 GridSearchCV 中显式指定测试/训练集【英文标题】:Explicitly specifying test/train sets in GridSearchCV 【发布时间】:2018-07-01 14:47:53 【问题描述】:我对sklearn的GridSearchCV
的cv
参数有疑问。
我正在处理具有时间成分的数据,因此我认为 KFold 交叉验证中的随机改组似乎不明智。
相反,我想在GridSearchCV
中明确指定训练、验证和测试数据的截止值。我可以这样做吗?
为了更好地阐明这个问题,下面是我手动处理的方法。
import numpy as np
import pandas as pd
from sklearn.linear_model import Ridge
np.random.seed(444)
index = pd.date_range('2014', periods=60, freq='M')
X, y = make_regression(n_samples=60, n_features=3, random_state=444, noise=90.)
X = pd.DataFrame(X, index=index, columns=list('abc'))
y = pd.Series(y, index=index, name='y')
# Train on the first 30 samples, validate on the next 10, test on
# the final 10.
X_train, X_val, X_test = np.array_split(X, [35, 50])
y_train, y_val, y_test = np.array_split(y, [35, 50])
param_grid = 'alpha': np.linspace(0, 1, 11)
model = None
best_param_ = None
best_score_ = -np.inf
# Manual implementation
for alpha in param_grid['alpha']:
ridge = Ridge(random_state=444, alpha=alpha).fit(X_train, y_train)
score = ridge.score(X_val, y_val)
if score > best_score_:
best_score_ = score
best_param_ = alpha
model = ridge
print('Optimal alpha parameter: :0.2f'.format(best_param_))
print('Best score (on validation data): :0.2f'.format(best_score_))
print('Test set score: :.2f'.format(model.score(X_test, y_test)))
# Optimal alpha parameter: 1.00
# Best score (on validation data): 0.64
# Test set score: 0.22
这里的流程是:
对于 X 和 Y,我想要一个训练集、验证集和测试集。训练集是时间序列中的前 35 个样本。验证集是接下来的 15 个样本。测试集是最后 10 个。 训练集和验证集用于确定 Ridge 回归中的最佳alpha
参数。这里我测试了alpha
s (0.0, 0.1, ..., 0.9, 1.0)。
测试集作为看不见的数据保留用于“实际”测试。
无论如何...我似乎想做这样的事情,但不确定要在这里传递给cv
:
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(Ridge(random_state=444), param_grid, cv= ???)
grid_search.fit(...?)
我无法解释的文档指定:
cv
: int,交叉验证生成器或可迭代的,可选的确定交叉验证拆分策略。可能的输入 简历是:
无,使用默认的三折交叉验证, 整数,用于指定(分层)KFold 中的折叠数, 用作交叉验证生成器的对象。 可迭代的屈服训练,测试拆分。对于整数/无输入,如果估计器是分类器并且 y 是 使用二元或多类,StratifiedKFold。在所有其他 情况下,使用 KFold。
【问题讨论】:
另见***.com/q/31948879/10495893 【参考方案1】:正如@MaxU 所说,最好让 GridSearchCV 处理拆分,但如果您想按照问题中的设置强制拆分,那么您可以使用 PredefinedSplit
来执行此操作。
因此您需要对代码进行以下更改。
# Here X_test, y_test is the untouched data
# Validation data (X_val, y_val) is currently inside X_train, which will be split using PredefinedSplit inside GridSearchCV
X_train, X_test = np.array_split(X, [50])
y_train, y_test = np.array_split(y, [50])
# The indices which have the value -1 will be kept in train.
train_indices = np.full((35,), -1, dtype=int)
# The indices which have zero or positive values, will be kept in test
test_indices = np.full((15,), 0, dtype=int)
test_fold = np.append(train_indices, test_indices)
print(test_fold)
# OUTPUT:
array([-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1,
-1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1, -1,
-1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0])
from sklearn.model_selection import PredefinedSplit
ps = PredefinedSplit(test_fold)
# Check how many splits will be done, based on test_fold
ps.get_n_splits()
# OUTPUT: 1
for train_index, test_index in ps.split():
print("TRAIN:", train_index, "TEST:", test_index)
# OUTPUT:
('TRAIN:', array([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16,
17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33,
34]),
'TEST:', array([35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49]))
# And now, send this `ps` to cv param in GridSearchCV
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(Ridge(random_state=444), param_grid, cv=ps)
# Here, send the X_train and y_train
grid_search.fit(X_train, y_train)
发送到fit()
的 X_train、y_train 将使用我们定义的拆分分为训练和测试(在您的情况下为 val),因此,Ridge 将根据索引 [0:35] 的原始数据进行训练并进行测试在 [35:50]。
希望这可以清除工作。
【讨论】:
只是为了确保我遵循-“具有零或正值的索引将保留在测试中”-您的意思是通常也称为验证集,对吗? IE。确定最佳参数的“测试”。 @BradSolomon 是的。网格搜索将对参数进行评分的测试集。索引 50 及以上的实际测试集未受影响。 你也可以在这里做test_fold = np.repeat([-1, 0], [35, 15])
来节省几行
@Riley 我不完全理解这个问题。是的,如果问题允许,则不需要拆分数据以保留另一个验证集。例如,有些人的数据已经分为训练和测试,他们只能使用训练数据进行拟合。在这种情况下,他们可能会在网格搜索中使用整个训练数据,这将根据折叠拆分数据。如果他们愿意,他们可能会事先拆分数据以使验证集远离网格搜索。
@user23657 不行,在GridSearchCV
恐怕做不到【参考方案2】:
你试过TimeSeriesSplit吗?
它是明确用于拆分时间序列数据的。
tscv = TimeSeriesSplit(n_splits=3)
grid_search = GridSearchCV(clf, param_grid, cv=tscv.split(X))
【讨论】:
【参考方案3】:在时间序列数据中,Kfold 不是正确的方法,因为 kfold cv 会打乱您的数据,并且您会丢失序列中的模式。这是一种方法
import xgboost as xgb
from sklearn.model_selection import TimeSeriesSplit, GridSearchCV
import numpy as np
X = np.array([[4, 5, 6, 1, 0, 2], [3.1, 3.5, 1.0, 2.1, 8.3, 1.1]]).T
y = np.array([1, 6, 7, 1, 2, 3])
tscv = TimeSeriesSplit(n_splits=2)
model = xgb.XGBRegressor()
param_search = 'max_depth' : [3, 5]
my_cv = TimeSeriesSplit(n_splits=2).split(X)
gsearch = GridSearchCV(estimator=model, cv=my_cv,
param_grid=param_search)
gsearch.fit(X, y)
参考 - How do I use a TimeSeriesSplit with a GridSearchCV object to tune a model in scikit-learn?
【讨论】:
以上是关于在 GridSearchCV 中显式指定测试/训练集的主要内容,如果未能解决你的问题,请参考以下文章
如何使用不同的数据集进行 GridSearchCV 训练和测试?