在 sklearn 管道中对分类变量实施 KNN 插补

Posted

技术标签:

【中文标题】在 sklearn 管道中对分类变量实施 KNN 插补【英文标题】:Implementing KNN imputation on categorical variables in an sklearn pipeline 【发布时间】:2021-03-02 04:14:53 【问题描述】:

我正在使用 sklearn 的管道转换器实现预处理管道。我的管道包括 sklearn 的 KNNImputer 估计器,我想用它来估算数据集中的分类特征。 (我的问题类似于这个帖子,但它不包含我的问题的答案:How to implement KNN to impute categorical features in a sklearn pipeline)

我知道分类特征必须在插补之前进行编码,这就是我遇到麻烦的地方。使用标准标签/序数/onehot 编码器,当尝试使用缺失值 (np.nan) 对分类特征进行编码时,您会收到以下错误:

ValueError: Input contains NaN

我已经设法通过创建一个自定义编码器来“绕过”它,在该编码器中我将 np.nan 替换为“缺失”:

class CustomEncoder(BaseEstimator, TransformerMixin):
    def __init__(self):
        self.encoder = None

    def fit(self, X, y=None):
        self.encoder = OrdinalEncoder()
        return self.encoder.fit(X.fillna('Missing'))

    def transform(self, X, y=None):
        return self.encoder.transform(X.fillna('Missing'))

    def fit_transform(self, X, y=None, **fit_params):
        self.encoder = OrdinalEncoder()
        return self.encoder.fit_transform(X.fillna('Missing'))

preprocessor = ColumnTransformer([
    ('categoricals', CustomEncoder(), cat_features),
    ('numericals', StandardScaler(), num_features)],
    remainder='passthrough'
)

pipeline = Pipeline([
    ('preprocessing', preprocessor),
    ('imputing', KNNImputer(n_neighbors=5))
])

然而,在这种情况下,我无法找到一种合理的方法将编码的“缺失”值设置回 np.nan,然后再使用 KNNImputer。

我读到我可以在此线程上使用 OneHotEncoder 转换器手动执行此操作:Cyclical Loop Between OneHotEncoder and KNNImpute in Scikit-learn,但我想再次在管道中实现所有这些以自动化整个预处理阶段。

有没有人设法做到这一点?有人会推荐替代解决方案吗?使用 KNN 算法进行插补可能不值得麻烦,我应该使用简单的插补器吗?

提前感谢您的反馈!

【问题讨论】:

作为对第二个链接线程的一种跟进,***.com/q/66635031/10495893 处有一个可流水线转换器。 【参考方案1】:

恐怕这行不通。如果你对分类数据进行一次热编码,你的缺失值将被编码为一个新的二进制变量,KNNImputer 将无法处理它们,因为:

它一次作用于每一列,而不是作用于一组完整的单热编码列 不会再有任何遗漏需要处理

无论如何,您有几个选项可以使用 scikit-learn 估算缺失的分类变量:

    您可以使用sklearn.impute.SimpleImputerstrategy="most_frequent":这将使用每列中出现频率最高的值替换缺失值,无论它们是字符串还是数字数据 使用 sklearn.impute.KNNImputer 有一些限制:您必须首先将分类特征转换为数字特征,同时保留 NaN 值(请参阅:LabelEncoder that keeps missing values as 'NaN'),然后您可以仅使用最近的邻居来使用 KNNImputer作为替代(如果您使用多个邻居,它将呈现一些毫无意义的平均值)。例如:
    import numpy as np
    import pandas as pd
    from sklearn.preprocessing import LabelEncoder
    from sklearn.impute import KNNImputer
    
    df = pd.DataFrame('A': ['x', np.NaN, 'z'], 'B': [1, 6, 9], 'C': [2, 1, np.NaN])
    
    df = df.apply(lambda series: pd.Series(
        LabelEncoder().fit_transform(series[series.notnull()]),
        index=series[series.notnull()].index
    ))
    
    imputer = KNNImputer(n_neighbors=1)
    imputer.fit_transform(df)
    
    In:
        A   B   C
    0   x   1   2.0
    1   NaN 6   1.0
    2   z   9   NaN
    
    Out:
    array([[0., 0., 1.],
           [0., 1., 0.],
           [1., 2., 0.]])
    使用sklearn.impute.IterativeImputer 并为混合数据复制MissForest imputer(但您必须将数字与分类特征分开处理)。例如:
    import numpy as np
    import pandas as pd
    from sklearn.preprocessing import LabelEncoder
    from sklearn.experimental import enable_iterative_imputer
    from sklearn.impute import IterativeImputer
    from sklearn.ensemble import RandomForestRegressor, RandomForestClassifier
    
    df = pd.DataFrame('A': ['x', np.NaN, 'z'], 'B': [1, 6, 9], 'C': [2, 1, np.NaN])
    
    categorical = ['A']
    numerical = ['B', 'C']
    
    df[categorical] = df[categorical].apply(lambda series: pd.Series(
        LabelEncoder().fit_transform(series[series.notnull()]),
        index=series[series.notnull()].index
    ))
    
    print(df)
    
    imp_num = IterativeImputer(estimator=RandomForestRegressor(),
                               initial_strategy='mean',
                               max_iter=10, random_state=0)
    imp_cat = IterativeImputer(estimator=RandomForestClassifier(), 
                               initial_strategy='most_frequent',
                               max_iter=10, random_state=0)
    
    df[numerical] = imp_num.fit_transform(df[numerical])
    df[categorical] = imp_cat.fit_transform(df[categorical])
    
    print(df)

【讨论】:

顺便说一句,如果您希望将所有这些实现到 Scikit-learn 管道中,您可以查看我的用于表格数据深度学习的管道:github.com/lmassaron/deep_learning_for_tabular_data 我认为 LEncoder 类是什么你正在寻找:-) 感谢您的回复和链接卢卡。是的,我正在寻求使用 OrdinalEncoder 来实现您上面提到的解决方案 2)。我的想法是,KNN 插补会给我比 SimpleImpute 更好的结果,但我不确定如何真正评估它。 还有第三种方法,基于 Scikit-learn 中的一个实验函数:IterativeImputer,它可以复制 MissForest(参见:academic.oup.com/bioinformatics/article/28/1/112/219101),一种能够同时处理数字和分类缺失值的方法.我已将答案添加为编辑。 MissForest 方法不仅能够处理混合类型变量,而且在随机缺失 (MAR) 和非随机缺失 (MNAR) 的情况下也更可靠使用准实验数据通常是更常见的情况。 非常有趣。我认为我确实应该探索解决方案 3)。老实说,我还没有听说过,这不是一种常见的插补策略吗?这种方法有缺点吗?我想它更慢。【参考方案2】:

对于任何感兴趣的人,我设法实现了一个忽略 np.nan 并与 sklearn 管道转换器兼容的自定义标签编码器,类似于 Luca Massaron 在他的 github 存储库中实现的 LEncoder:https://github.com/lmassaron/deep_learning_for_tabular_data

class CustomEncoder(BaseEstimator, TransformerMixin):
    def __init__(self):
        self.encoders = dict()

    def fit(self, X, y=None):
        for col in X.columns:
            le = LabelEncoder()
            le.fit(X.loc[X[col].notna(), col])
            le_dict = dict(zip(le.classes_, le.transform(le.classes_)))

            # Set unknown to new value so transform on test set handles unknown values
            max_value = max(le_dict.values())
            le_dict['_unk'] = max_value + 1

            self.encoders[col] = le_dict
        return self

    def transform(self, X, y=None):
        for col in X.columns:
            le_dict = self.encoders[col]
            X.loc[X[col].notna(), col] = X.loc[X[col].notna(), col].apply(
                lambda x: le_dict.get(x, le_dict['_unk'])).values
        return X

    def fit_transform(self, X, y=None, **fit_params):
        self.fit(X, y)
        return self.transform(X, y)

【讨论】:

以上是关于在 sklearn 管道中对分类变量实施 KNN 插补的主要内容,如果未能解决你的问题,请参考以下文章

案例:鸢尾花种类预测--知道sklearn中对数据集的划分方法

KNN sklearn 中的分类标签

sklearn学习 第一篇:knn分类

使用 sklearn 或 pandas 进行一次热编码后,如何在混合数据集(数值 + 分类)上应用 KNN

使用 sklearn 同时使用数字和分类变量来拟合决策树

机器学习 sklearn 监督学习 分类算法 KNN K-NearestNeighbor