逻辑回归 sklearn - 训练和应用模型

Posted

技术标签:

【中文标题】逻辑回归 sklearn - 训练和应用模型【英文标题】:Logistic regression sklearn - train and apply model 【发布时间】:2018-05-01 20:55:24 【问题描述】:

我是机器学习的新手,第一次尝试 Sklearn。我有两个数据框,一个带有用于训练逻辑回归模型(具有 10 倍交叉验证)的数据,另一个用于使用该模型预测类('0,1')。 到目前为止,这是我使用在 Sklearn 文档和网络上找到的一些教程的代码:

import pandas as pd
import numpy as np
import sklearn
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import KFold
from sklearn.preprocessing import normalize
from sklearn.preprocessing import scale
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import cross_val_predict
from sklearn import metrics


# Import dataframe with training data
df = pd.read_csv('summary_44.csv')
cols = df.columns.drop('num_class') # Data to use (num_class is the column with the classes)

# Import dataframe with data to predict
df_pred = pd.read_csv('new_predictions.csv')

# Scores
df_data = df.ix[:,:-1].values

# Target
df_target = df.ix[:,-1].values

# Values to predict
df_test = df_pred.ix[:,:-1].values

# Scores' names
df_data_names = cols.values

# Scaling
X, X_pred, y = scale(df_data), scale(df_test), df_target

# Define number of folds
kf = KFold(n_splits=10)
kf.get_n_splits(X) # returns the number of splitting iterations in the cross-validator

# Logistic regression normalizing variables
LogReg = LogisticRegression()

# 10-fold cross-validation
scores = [LogReg.fit(X[train], y[train]).score(X[test], y[test]) for train, test in kf.split(X)]
print scores

# Predict new
novel = LogReg.predict(X_pred)

这是实现逻辑回归的正确方法吗? 我知道应该在交叉验证之后使用 fit() 方法来训练模型并将其用于预测。但是,由于我在列表理解中调用了 fit(),我真的不知道我的模型是否“适合”并且可用于进行预测。

【问题讨论】:

发布一些数据。打印出 df 和 df_data 【参考方案1】:

我一般的事情都还好,但是有一些问题。

    缩放

    X, X_pred, y = scale(df_data), scale(df_test), df_target
    

您独立扩展训练和测试数据,这是不正确的。两个数据集必须使用相同的缩放器进行缩放。 "Scale" 是一个简单的函数,但最好使用其他的,例如 StandardScaler。

scaler = StandardScaler()
scaler.fit(df_data)
X = scaler.transform(df_data)
X_pred = scaler.transform(df_test)

    交叉验证和预测。 你的代码是如何工作的?您将数据 10 次拆分为训练集和保留集;在训练集上拟合模型 10 次,并在保留集上计算分数。这样您可以获得交叉验证分数,但模型仅适用于部分数据。所以最好在整个数据集上拟合模型,然后进行预测:

    LogReg.fit(X, y)
    novel = LogReg.predict(X_pred)
    

我想注意到有一些先进的技术,比如 stacking 和 boosting,但是如果你使用 sklearn 学习,那么最好还是坚持基础。

【讨论】:

以上是关于逻辑回归 sklearn - 训练和应用模型的主要内容,如果未能解决你的问题,请参考以下文章

具有分类输出的逻辑回归 sklearn

为啥 auc 与 sklearn 和 R 的逻辑回归如此不同

训练期间的sklearn逻辑回归损失值

将逻辑回归模型拟合到 MNIST 数据需要很长时间

sklearn (scikit-learn) 逻辑回归包——设置训练的分类系数。

数据挖掘系列 啥是逻辑回归训练模型?