逻辑回归 sklearn - 训练和应用模型
Posted
技术标签:
【中文标题】逻辑回归 sklearn - 训练和应用模型【英文标题】:Logistic regression sklearn - train and apply model 【发布时间】:2018-05-01 20:55:24 【问题描述】:我是机器学习的新手,第一次尝试 Sklearn。我有两个数据框,一个带有用于训练逻辑回归模型(具有 10 倍交叉验证)的数据,另一个用于使用该模型预测类('0,1')。 到目前为止,这是我使用在 Sklearn 文档和网络上找到的一些教程的代码:
import pandas as pd
import numpy as np
import sklearn
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import KFold
from sklearn.preprocessing import normalize
from sklearn.preprocessing import scale
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import cross_val_predict
from sklearn import metrics
# Import dataframe with training data
df = pd.read_csv('summary_44.csv')
cols = df.columns.drop('num_class') # Data to use (num_class is the column with the classes)
# Import dataframe with data to predict
df_pred = pd.read_csv('new_predictions.csv')
# Scores
df_data = df.ix[:,:-1].values
# Target
df_target = df.ix[:,-1].values
# Values to predict
df_test = df_pred.ix[:,:-1].values
# Scores' names
df_data_names = cols.values
# Scaling
X, X_pred, y = scale(df_data), scale(df_test), df_target
# Define number of folds
kf = KFold(n_splits=10)
kf.get_n_splits(X) # returns the number of splitting iterations in the cross-validator
# Logistic regression normalizing variables
LogReg = LogisticRegression()
# 10-fold cross-validation
scores = [LogReg.fit(X[train], y[train]).score(X[test], y[test]) for train, test in kf.split(X)]
print scores
# Predict new
novel = LogReg.predict(X_pred)
这是实现逻辑回归的正确方法吗? 我知道应该在交叉验证之后使用 fit() 方法来训练模型并将其用于预测。但是,由于我在列表理解中调用了 fit(),我真的不知道我的模型是否“适合”并且可用于进行预测。
【问题讨论】:
发布一些数据。打印出 df 和 df_data 【参考方案1】:我一般的事情都还好,但是有一些问题。
缩放
X, X_pred, y = scale(df_data), scale(df_test), df_target
您独立扩展训练和测试数据,这是不正确的。两个数据集必须使用相同的缩放器进行缩放。 "Scale" 是一个简单的函数,但最好使用其他的,例如 StandardScaler。
scaler = StandardScaler()
scaler.fit(df_data)
X = scaler.transform(df_data)
X_pred = scaler.transform(df_test)
交叉验证和预测。 你的代码是如何工作的?您将数据 10 次拆分为训练集和保留集;在训练集上拟合模型 10 次,并在保留集上计算分数。这样您可以获得交叉验证分数,但模型仅适用于部分数据。所以最好在整个数据集上拟合模型,然后进行预测:
LogReg.fit(X, y)
novel = LogReg.predict(X_pred)
我想注意到有一些先进的技术,比如 stacking 和 boosting,但是如果你使用 sklearn 学习,那么最好还是坚持基础。
【讨论】:
以上是关于逻辑回归 sklearn - 训练和应用模型的主要内容,如果未能解决你的问题,请参考以下文章
为啥 auc 与 sklearn 和 R 的逻辑回归如此不同