仅在训练折叠上使用带有 SMOTE 过采样的 sklearn 的 RandomizedSearchCV
Posted
技术标签:
【中文标题】仅在训练折叠上使用带有 SMOTE 过采样的 sklearn 的 RandomizedSearchCV【英文标题】:Using sklearn's RandomizedSearchCV with SMOTE oversampling only on training folds 【发布时间】:2020-08-10 16:59:22 【问题描述】:我有一个高度不平衡的数据集 (99.5:0.5)。我想使用sklearn
的RandomizedSearchCV
对随机森林模型执行超参数调整。我希望使用 SMOTE 对每个训练折叠进行过采样,然后在最终折叠上对每个测试进行评估,保持原始分布而不进行任何过采样。由于这些测试折叠非常不平衡,我希望使用 F1 分数来评估测试。
我尝试了以下方法:
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import RandomizedSearchCV, StratifiedKFold
from imblearn.over_sampling import SMOTE
from imblearn.pipeline import make_pipeline
import pandas as pd
dataset = pd.read_csv("data/dataset.csv")
data_x = dataset.drop(["label"], axis=1)
data_y = dataset["label"]
smote = SMOTE()
model = RandomForestClassifier()
pipeline = make_pipeline(smote, model)
grid =
"randomforestclassifier__n_estimators": [10, 25, 50, 100, 250, 500, 750, 1000, 1250, 1500, 1750, 2000],
"randomforestclassifier__criterion": ["gini", "entropy"],
"randomforestclassifier__max_depth": [10, 20, 30, 40, 50, 75, 100, 150, 200, None],
"randomforestclassifier__min_samples_split": [1, 2, 3, 4, 5, 8, 10, 15, 20],
"randomforestclassifier__min_samples_leaf": [1, 2, 3, 4, 5, 8, 10, 15, 20],
"randomforestclassifier__max_features": ["auto", None, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9],
"randomforestclassifier__bootstrap": [True, False],
"randomforestclassifier__max_samples": [None, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9],
kf = StratifiedKFold(n_splits=5)
search = RandomizedSearchCV(pipeline, grid, scoring='f1', n_iter=10, n_jobs=-1, cv=kf)
search = search.fit(data_x, data_y)
print(search.best_params_)
但是,我不确定是否在每次迭代中都将 SMOTE 应用于测试集。
如何确保 SMOTE 仅应用于训练折叠而不是测试折叠?
编辑:
This article 似乎回答了我的问题(特别是在第 3B 节中),提供了我正在尝试做的示例代码,并演示了它是如何按照我指定的方式工作的
【问题讨论】:
与问题无关并且出于好奇 - 管道是否这样运行?我认为您需要将网格参数中的前缀更改为model__
而不是randomforestclassifier__
。它是否按照您在此处发布的那样运行?
是的,我认为make_pipeline
只是读取类的名称并将其全部转换为小写。否则,您可以自己初始化一个Pipeline
对象并根据需要手动设置名称。
我现在实际上已经将我的代码更改为pipeline = Pipeline([("smote", SMOTE()), ("rf", RandomForestClassifier())])
和grid = "rf__n_estimators": ...
是的,很明显这个版本可以正常运行;但我承认,如果在没有被允许实际运行的情况下被问到,我的猜测是你帖子中的内容不会运行。
它运行良好,我只是不知道它是否在做我想要/期望的事情,但我正在实施我在问题编辑中链接的文章中读到的内容,并将报告结果如果它似乎工作正常,请返回。
【参考方案1】:
如我编辑中链接的文章所示,当 imblearn
Pipeline
传递给 sklearn
的 RandomizedSearchCV
时,转换似乎只应用于训练折叠上的数据,而不是验证折叠。 (不过我不明白这是如何工作的,因为例如,如果将缩放器传递到管道中,您会希望将其应用于所有数据,而不仅仅是训练折叠)。
我使用以下代码对此进行了测试,该代码实际上没有进行任何超参数调整,而是模拟了正在调整的参数,并且验证 F1 分数与我最终测试的 F1 分数几乎相同。
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.model_selection import RandomizedSearchCV, StratifiedKFold
from sklearn.metrics import confusion_matrix, classification_report
from imblearn.over_sampling import SMOTE
from imblearn.pipeline import Pipeline
import pandas as pd
# TRAIN / TEST SPLIT
dataset = pd.read_csv("data/dataset.csv")
data_x = dataset.drop(["label"], axis=1)
data_y = dataset["label"]
train_x, test_x, train_y, test_y = train_test_split(
data_x, data_y, test_size=0.3, shuffle=True
)
# HYPERPARAMETER TUNING
pipeline = Pipeline([("smote", SMOTE()), ("rf", RandomForestClassifier())])
grid =
"rf__n_estimators": [100],
kf = StratifiedKFold(n_splits=5)
# Just applies smote to the k-1 training folds, and not to the validation fold
search = RandomizedSearchCV(
pipeline, grid, scoring="f1", n_iter=1, n_jobs=-1, cv=kf
).fit(train_x, train_y)
best_score = search.best_score_
best_params =
key.replace("rf__", ""): value for key, value in search.best_params_.items()
print(f"Best Tuning F1 Score: best_score")
print(f"Best Tuning Params: best_params")
# EVALUTING BEST MODEL ON TEST SET
best_model = RandomForestClassifier(**best_params).fit(train_x, train_y)
accuracy = best_model.score(test_x, test_y)
test_pred = best_model.predict(test_x)
tn, fp, fn, tp = confusion_matrix(test_y, test_pred).ravel()
conf_mat = pd.DataFrame(
"Model (0)": [tn, fn], "Model (1)": [fp, tp], index=["Actual (0)", "Actual (1)"],
)
classif_report = classification_report(test_y, test_pred)
feature_importance = pd.DataFrame(
"feature": list(train_x.columns), "importance": best_model.feature_importances_
).sort_values("importance", ascending=False)
print(f"Accuracy: round(accuracy * 100, 2)%")
print("")
print(conf_mat)
print("")
print(classif_report)
print("")
pd.set_option("display.max_rows", len(feature_importance))
print(feature_importance)
pd.reset_option("display.max_rows")
【讨论】:
也许你能帮助回答这个问题? ***.com/questions/61482581/… 在我的例子中,它只将管道的预处理步骤应用于训练集,但当然在某些情况下,您希望将预处理器应用于验证集和测试集好吧,但我不明白你如何区分这两种情况。以上是关于仅在训练折叠上使用带有 SMOTE 过采样的 sklearn 的 RandomizedSearchCV的主要内容,如果未能解决你的问题,请参考以下文章
kaggle 欺诈信用卡预测——不平衡训练样本的处理方法 综合结论就是:随机森林+过采样(直接复制或者smote后,黑白比例1:3)效果比较好!记得在smote前一定要先做标准化!!!