Python数据分析--Kaggle共享单车项目实战
Posted 徐-清风
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python数据分析--Kaggle共享单车项目实战相关的知识,希望对你有一定的参考价值。
前言
现如今,共享单车在生活中可谓处处可见,那么它的租赁需求是多少呢?今天我们就基于美国华盛顿共享单车的租赁数据,对租赁需求进行预测。
目录
1. 数据来源及背景
2. 数据探索分析
3. 数据预处理
4. 可视化分析
5. 回归分析
正文
1. 数据来源及背景
数据来源: https://www.kaggle.com/c/bike-sharing-demand/data,
数据背景: 该数据集是美国华盛顿共享单车租赁数据, 其中有训练集和测试集, 在训练集中包含10886个样本以及12个字段, 通过训练集上自行车租赁数据对美国华盛顿共享单车租赁需求进行预测.
2. 数据探索分析
1. 读取数据
import pandas as pd df = pd.read_csv(r\'D:\\Data\\bike.csv\') pd.set_option(\'display.max_rows\',4 ) df
通过以上可以得知数据维度10886行X12列, 除了第一列其它均显示为数值, 具体的格式还要进一步查看, 对于各列的解释也放入下一环节.
2. 查看数据整体信息
df.info()
<class \'pandas.core.frame.DataFrame\'> RangeIndex: 10886 entries, 0 to 10885 Data columns (total 12 columns): datetime 10886 non-null object #时间和日期 season 10886 non-null int64 #季节, 1 =春季,2 =夏季,3 =秋季,4 =冬季 holiday 10886 non-null int64 #是否是假期, 1=是, 0=否 workingday 10886 non-null int64 #是否是工作日, 1=是, 0=否 weather 10886 non-null int64 #天气,1:晴朗,很少有云,部分多云,部分多云; 2:雾+多云,雾+碎云,雾+少云,雾; 3:小雪,小雨+雷雨+散云,小雨+散云; 4:大雨+冰块+雷暴+雾,雪+雾
temp 10886 non-null float64 #温度
atemp 10886 non-null float64 #体感温度
humidity 10886 non-null int64 #相对湿度
windspeed 10886 non-null float64 #风速
casual 10886 non-null int64 #未注册用户租赁数量
registered 10886 non-null int64 #注册用户租赁数量
count 10886 non-null int64 #所有用户租赁总数
dtypes: float64(3), int64(8), object(1)
memory usage: 1020.6+ KB
除了datetime为字符串型, 其他均为数值型, 且无缺失值.
3. 描述性统计
df.describe()
温度, 体表温度, 相对湿度, 风速均近似对称分布, 而非注册用户, 注册用户,以及总数均右偏分布.
4. 偏态, 峰态
for i in range(5, 12): name = df.columns[i] print(\'{0}偏态系数为 {1}, 峰态系数为 {2}\'.format(name, df[name].skew(), df[name].kurt()))
temp偏态系数为 0.003690844422472008, 峰态系数为 -0.9145302637630794 atemp偏态系数为 -0.10255951346908665, 峰态系数为 -0.8500756471754651 humidity偏态系数为 -0.08633518364548581, 峰态系数为 -0.7598175375208864 windspeed偏态系数为 0.5887665265853944, 峰态系数为 0.6301328693364932 casual偏态系数为 2.4957483979812567, 峰态系数为 7.551629305632764 registered偏态系数为 1.5248045868182296, 峰态系数为 2.6260809999210672 count偏态系数为 1.2420662117180776, 峰态系数为 1.3000929518398334
temp, atemp, humidity低度偏态, windspeed中度偏态, casual, registered, count高度偏态
temp, atemp, humidity为平峰分布, windspeed,casual, registered, count为尖峰分布.
3. 数据预处理
由于没有缺失值, 不用处理缺失值, 看看有没有重复值.
1. 检查重复值
print(\'未去重: \', df.shape) print(\'去重: \', df.drop_duplicates().shape)
未去重: (10886, 12) 去重: (10886, 12)
没有重复项, 看看异常值.
2. 异常值
通过箱线图查看异常值
import seaborn as sns import matplotlib.pyplot as plt fig, axes = plt.subplots(nrows=2, ncols=2, figsize=(12, 6)) #绘制箱线图 sns.boxplot(x="windspeed", data=df,ax=axes[0][0]) sns.boxplot(x=\'casual\', data=df, ax=axes[0][1]) sns.boxplot(x=\'registered\', data=df, ax=axes[1][0]) sns.boxplot(x=\'count\', data=df, ax=axes[1][1]) plt.show()
租赁数量会受小时的影响, 比如说上班高峰期等, 故在这里先不处理异常值.
3. 数据加工
转换"时间和日期"的格式, 并提取出小时, 日, 月, 年.
#转换格式, 并提取出小时, 星期几, 月份 df[\'datetime\'] = pd.to_datetime(df[\'datetime\']) df[\'hour\'] = df.datetime.dt.hour df[\'week\'] = df.datetime.dt.dayofweek df[\'month\'] = df.datetime.dt.month df[\'year_month\'] = df.datetime.dt.strftime(\'%Y-%m\') df[\'date\'] = df.datetime.dt.date #删除datetime df.drop(\'datetime\', axis = 1, inplace = True) df
4. 可视化分析
1) 日期和总租赁数量
import matplotlib #设置中文字体 font = {\'family\': \'SimHei\'} matplotlib.rc(\'font\', **font) #分别计算日期和月份中位数 group_date = df.groupby(\'date\')[\'count\'].median() group_month = df.groupby(\'year_month\')[\'count\'].median() group_month.index = pd.to_datetime(group_month.index) plt.figure(figsize=(16,5)) plt.plot(group_date.index, group_date.values, \'-\', color = \'b\', label = \'每天租赁数量中位数\', alpha=0.8) plt.plot(group_month.index, group_month.values, \'-o\', color=\'orange\', label = \'每月租赁数量中位数\') plt.legend() plt.show()
2012年相比2011年租赁数量有所增长, 且波动幅度相类似.
2) 月份和总租赁数量
import seaborn as sns plt.figure(figsize=(10, 4)) sns.boxplot(x=\'month\', y=\'count\', data=df) plt.show()
与上图的波动幅度基本一致, 另外每个月均有不同程度的离群值.
3) 季节和总租赁数量
plt.figure(figsize=(8, 4)) sns.boxplot(x=\'season\', y=\'count\', data=df) plt.show()
就中位数来说, 秋季是最多的, 春季最少且离群值较多.
4) 星期几和租赁数量
fig, axes = plt.subplots(nrows=3, ncols=1, figsize=(12, 8)) sns.boxplot(x="week",y=\'casual\' ,data=df,ax=axes[0]) sns.boxplot(x=\'week\',y=\'registered\', data=df, ax=axes[1]) sns.boxplot(x=\'week\',y=\'count\', data=df, ax=axes[2]) plt.show()
就中位数来说, 未注册用户周六和周日较多, 而注册用户则周内较多, 对应的总数也是周内较多, 且周内在总数的离群值较多(0代表周一, 6代表周日)
5) 节假日, 工作日和总租赁数量
fig, axes = plt.subplots(nrows=3, ncols=2, figsize=(9, 7)) sns.boxplot(x=\'holiday\', y=\'casual\', data=df, ax=axes[0][0]) sns.boxplot(x=\'holiday\', y=\'registered\', data=df, ax=axes[1][0]) sns.boxplot(x=\'holiday\', y=\'count\', data=df, ax=axes[2][0]) sns.boxplot(x=\'workingday\', y=\'casual\', data=df, ax=axes[0][1]) sns.boxplot(x=\'workingday\', y=\'registered\', data=df, ax=axes[1][1]) sns.boxplot(x=\'workingday\', y=\'count\', data=df, ax=axes[2][1]) plt.show()
未注册用户: 在节假日较多, 在工作日较少
注册用户: 在节假日较少, 在工作日较多
总的来说, 节假日租赁较少, 工作日租赁较多, 初步猜测多数未注册用户租赁自行车是用来非工作日出游, 而多数注册用户则是工作日用来上班或者上学.
6) 小时和总租赁数量的关系
#绘制第一个子图 plt.figure(1, figsize=(14, 8)) plt.subplot(221) hour_casual = df[df.holiday==1].groupby(\'hour\')[\'casual\'].median() hour_registered = df[df.holiday==1].groupby(\'hour\')[\'registered\'].median() hour_count = df[df.holiday==1].groupby(\'hour\')[\'count\'].median() plt.plot(hour_casual.index, hour_casual.values, \'-\', color=\'r\', label=\'未注册用户\') plt.plot(hour_registered.index, hour_registered.values, \'-\', color=\'g\', label=\'注册用户\') plt.plot(hour_count.index, hour_count.values, \'-o\', color=\'c\', label=\'所有用户\') plt.legend() plt.xticks(hour_casual.index) plt.title(\'未注册用户和注册用户在节假日自行车租赁情况\') #绘制第二个子图 plt.subplot(222) hour_casual = df[df.workingday==1].groupby(\'hour\')[\'casual\'].median() hour_registered = df[df.workingday==1].groupby(\'hour\')[\'registered\'].median() hour_count = df[df.workingday==1].groupby(\'hour\')[\'count\'].median() plt.plot(hour_casual.index, hour_casual.values, \'-\', color=\'r\', label=\'未注册用户\') plt.plot(hour_registered.index, hour_registered.values, \'-\', color=\'g\', label=\'注册用户\') plt.plot(hour_count.index, hour_count.values, \'-o\', color=\'c\', label=\'所有用户\') plt.legend() plt.title(\'未注册用户和注册用户在工作日自行车租赁情况\') plt.xticks(hour_casual.index) #绘制第三个子图 plt.subplot(212) hour_casual = df.groupby(\'hour\')[\'casual\'].median() hour_registered = df.groupby(\'hour\')[\'registered\'].median() hour_count = df.groupby(\'hour\')[\'count\'].median() plt.plot(hour_casual.index, hour_casual.values, \'-\', color=\'r\', label=\'未注册用户\') plt.plot(hour_registered.index, hour_registered.values, \'-\', color=\'g\', label=\'注册用户\') plt.plot(hour_count.index, hour_count.values, \'-o\', color=\'c\', label=\'所有用户\') plt.legend() plt.title(\'未注册用户和注册用户自行车租赁情况\') plt.xticks(hour_casual.index) plt.show()
在节假日, 未注册用户和注册用户走势相接近, 不过未注册用户最高峰在14点, 而注册用户则是17点
在工作日, 注册用户呈现出双峰走势, 在8点和17点均为用车高峰期, 而这正是上下班或者上下学高峰期.
对于注册用户来说, 17点在节假日和工作日均为高峰期, 说明部分用户在节假日可能未必休假.
7) 天气和总租赁数量
fig, ax = plt.subplots(3, 1, figsize=(12, 6)) sns.boxplot(x=\'weather\', y=\'casual\', hue=\'workingday\',data=df, ax=ax[0]) sns.boxplot(x=\'weather\', y=\'registered\',hue=\'workingday\', data=df, ax=ax[1]) sns.boxplot(x=\'weather\', y=\'count\',hue=\'workingday\', data=df, ax=ax[2])
就中位数而言未注册用户和注册用户均表现为: 在工作日和非工作日租赁数量均随着天气的恶劣而减少, 特别地, 当天气为大雨大雪天(4)且非工作日均没有自行车租赁.
从图上可以看出, 大雨大雪天只有一个数据, 我们看看原数据.
df[df.weather==4]
只有在2012年1月9日18时为大雨大雪天, 说明天气是突然变化的, 部分用户可能因为没有看天气预报而租赁自行车, 当然也有其他原因.
另外, 发现1月份是春季, 看看它的季节划分规则.
sns.boxplot(x=\'season\', y=\'month\',data=df)
123为春季, 456为夏季, 789为秋季...
季节的划分通常和纬度相关, 而这份数据是用来预测美国华盛顿的租赁数量, 且美国和我国的纬度基本一样, 故按照345春节, 678夏季..这个规则来重新划分.
import numpy as np df[\'group_season\'] = np.where((df.month <=5) & (df.month >=3), 1, np.where((df.month <=8) & (df.month >=6), 2, np.where((df.month <=11) & (df.month >=9), 3, 4))) fig, ax = plt.subplots(2, 1, figsize=(12, 6)) #绘制气温和季节箱线图 sns.boxplot(x=\'season\', y=\'temp\',data=df, ax=ax[0]) sns.boxplot(x=\'group_season\', y=\'temp\',data=df, ax=ax[1])
第一个图是调整之前的, 就中位数来说, 春季气温最低, 秋季气温最高
第二个图是调整之后的, 就中位数来说, 冬季气温最低, 夏季气温最高
显然第二张的图的结果较符合常理, 故删除另外那一列.
df.drop(\'season\', axis=1, inplace=True) df.shape
(10886, 16)
8) 其他变量和总租赁数量的关系
这里我直接使用利用seaborn的pairplot绘制剩余的温度, 体感温度, 相对湿度, 风速这四个连续变量与未注册用户和注册用户的关系在一张图上.
sns.pairplot(df[[\'temp\', \'atemp\', \'humidity\', \'windspeed\', \'casual\', \'registered\', \'count\']])
为了方便纵览全局, 我将图片尺寸缩小, 如下图所示. 纵轴从上往下依次是温度, 体感温度, 相对湿度, 风速, 未注册用户, 注册用户, 所有用户, 横轴从左往右是同样的顺序.
从图上可以看出, 温度和体感温度分别与未注册用户, 注册用户, 所有用户均有一定程度的正相关, 而相对湿度和风速与之呈现一定程度的负相关. 另外, 其他变量之间也有不同程度的相关关系.
另外, 第四列(风速)在散点图中间有明显的间隙. 需要揪出这一块来看看.
df[\'windspeed\']
0 0.0000 1 0.0000 2 0.0000 ... 10883 15.0013 10884 6.0032 10885 8.9981 Name: windspeed, Length: 10886, dtype: float64
风速为0, 这明显不合理, 把其当成缺失值来处理. 我这里选择的是向后填充.
df.loc[df.windspeed == 0, \'windspeed\'] = np.nan df.fillna(method=\'bfill\', inplace=True) df.windspeed.isnull().sum()
0
9) 相关矩阵
由于多个变量不满足正态分布, 对其进行对数变换.
#对数转换 df[\'windspeed\'] = np.log(df[\'windspeed\'].apply(lambda x: x+1)) df[\'casual\'] = np.log(df[\'casual\'].apply(lambda x: x+1)) df[\'registered\'] = np.log(df[\'registered\'].apply(lambda x: x+1)) df[\'count\'] = np.log(df[\'count\'].apply(lambda x: x+1)) sns.pairplot(df[[\'windspeed\', \'casual\', \'registered\', \'count\']])
经过对数变换之后, 注册用户和所有用户的租赁数量和正态还是相差较大, 故在计算相关系数时选择spearman相关系数.
correlation = df.corr(method=\'spearman\') plt.figure(figsize=(12, 8)) #绘制热力图 sns.heatmap(correlation, linewidths=0.2, vmax=1, vmin=-1, linecolor=\'w\', annot=True,annot_kws={\'size\':8},square=True)
均有不同程度的相关程度, 其中, temp和atemp高度相关, count和registered高度相关, 数值均达到0.99.
5. 回归分析
岭回归和Lasso回归是加了正则化项的线性回归, 下面将分别构造三个模型:岭回归、Lasso回归和线性回归。
5.1 岭回归
1. 划分数据集
from sklearn.model_selection import train_test_split #由于所有用户的租赁数量是由未注册用户和注册用户相加而成, 故删除. df.drop([\'casual\',\'registered\'], axis=1, inplace=True) X = df.drop([\'count\'], axis=1) y = df[\'count\'] #划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1)
2. 模型训练
from sklearn.linear_model import Ridge #这里的alpha指的是正则化项参数, 初始先设置为1. rd = Ridge(alpha=1) rd.fit(X_train, y_train) print(rd.coef_) print(rd.intercept_)
[ 0.00770067 -0.00034301 0.0039196 0.00818243 0.03635549 -0.01558927 0.09080788 0.0971406 0.02791812 0.06114358 -0.00099811] 2.6840271343740754
通过前面我们知道, 正则化项参数对结果的影响较大, 下一步我们就通过岭迹图来选择正则化参数.
#设置参数以及训练模型 alphas = 10**np.linspace(-5, 10, 500) betas = [] for alpha in alphas: rd = Ridge(alpha = alpha) rd.fit(X_train, y_train) betas.append(rd.coef_) #绘制岭迹图 plt.figure(figsize=(8,6)) plt.plot(alphas, betas) #对数据进行对数转换, 便于观察. plt.xscale(\'log\') #添加网格线 plt.grid(True) #坐标轴适应数据量 plt.axis(\'tight\') plt.title(r\'正则化项参数$\\alpha$和回归系数$\\beta$岭迹图\') plt.xlabel(r\'$\\alpha$\') plt.ylabel(r\'$\\beta$\') plt.show()
通过图像可以看出, 当alpha为107时所有变量岭迹趋于稳定.按照岭迹法应当取alpha=107.
由于是通过肉眼观察的, 其不一定是最佳, 采用另外一种方式: 交叉验证的岭回归.
from sklearn.linear_model import RidgeCV from sklearn import metrics rd_cv = RidgeCV(alphas=alphas, cv=10, scoring=\'r2\') rd_cv.fit(X_train, y_train) rd_cv.alpha_
805.0291812295973
最后选出的最佳正则化项参数为805.03, 然后用这个参数进行模型训练
rd = Ridge(alpha=805.0291812295973) #, fit_intercept=False rd.fit(X_train, y_train) print(rd.coef_) print(rd.intercept_)
[ 0.00074612 -0.00382265 0.00532093 0.01100823 0.03375475 -0.01582157 0.0584206 0.09708992 0.02639369 0.0604242 -0.00116086] 2.7977274604845856
4. 模型预测
from sklearn import metrics from math import sqrt #分别预测训练数据和测试数据 y_train_pred = rd.predict(X_train) y_test_pred = rd.predict(X_test) #分别计算其均方根误差和拟合优度 y_train_rmse = sqrt(metrics.mean_squared_error(y_train, y_train_pred)) y_train_score = rd.score(X_train, y_train) y_test_rmse = sqrt(metrics.mean_squared_error(y_test, y_test_pred)) y_test_score = rd.score(X_test, y_test) print(\'训练集RMSE: {0}, 评分: {1}\'.format(y_train_rmse, y_train_score)) print(\'测试集RMSE: {0}, 评分: {1}\'.format(y_test_rmse, y_test_score))
训练集RMSE: 1.0348076524200298, 评分: 0.46691272323469246 测试集RMSE: 1.0508046977499312, 评分: 0.45801571689420706
5.2 Lasso回归
1. 模型训练
from sklearn.linear_model import Lasso alphas = 10**np.linspace(-5, 10, 500) betas = [] for alpha in alphas: Las = Lasso(alpha = alpha) Las.fit(X_train, y_train) betas.append(Las.coef_) plt.figure(figsize=(8,6)) plt.plot(alphas, betas) plt.xscale(\'log\') plt.grid(True) plt.axis(\'tight\') plt.title(r\'正则化项参数$\\alpha$和回归系数$\\beta$的Lasso图\') plt.xlabel(r\'$\\alpha$\') plt.ylabel(r\'$\\beta$\') plt.show()
通过Lasso回归曲线, 可以看出大致在10附近所有变量趋于稳定
同样采用交叉验证选择Lasso回归最优正则化项参数
from sklearn.linear_model import LassoCV from sklearn import metrics Las_cv = LassoCV(alphas=alphas, cv=10) Las_cv.fit(X_train, y_train) Las_cv.alpha_
0.005074705239490466
用这个参数重新训练模型
Las = Lasso(alpha=0.005074705239490466) #, fit_intercept=False Las.fit(X_train, y_train) print(Las.coef_) print(Las.intercept_)
[ 0. -0. 0. 0.01001827 0.03467474 -0.01570339 0.06202352 0.09721864 0.02632133 0.06032038 -0. ] 2.7808303982442952
对比岭回归可以发现, 这里的回归系数中有0存在, 也就是舍弃了holiday, workingday, weather和group_season这四个自变量.
#用Lasso分别预测训练集和测试集, 并计算均方根误差和拟合优度 y_train_pred = Las.predict(X_train) y_test_pred = Las.predict(X_test) y_train_rmse = sqrt(metrics.mean_squared_error(y_train, y_train_pred)) y_train_score = Las.score(X_train, y_train) y_test_rmse = sqrt(metrics.mean_squared_error(y_test, y_test_pred)) y_test_score = Las.score(X_test, y_test) print(\'训练集RMSE: {0}, 评分: {1}\'.format(y_train_rmse, y_train_score)) print(\'测试集RMSE: {0}, 评分: {1}\'.format(y_test_rmse, y_test_score))
5.3 线性回归
最后,再用传统的线性回归进行预测, 从而对比三者之间的差异.
from sklearn.linear_model import LinearRegression #训练线性回归模型 LR = LinearRegression() LR.fit(X_train, y_train) print(LR.coef_) print(LR.intercept_) #分别预测训练集和测试集, 并计算均方根误差和拟合优度 y_train_pred = LR.predict(X_train) y_test_pred = LR.predict(X_test) y_train_rmse = sqrt(metrics.mean_squared_error(y_train, y_train_pred)) y_train_score = LR.score(X_train, y_train) y_test_rmse = sqrt(metrics.mean_squared_error(y_test, y_test_pred)) y_test_score = LR.score(X_test, y_test) print(\'训练集RMSE: {0}, 评分: {1}\'.format(y_train_rmse, y_train_score)) print(\'测试集RMSE: {0}, 评分: {1}\'.format(y_test_rmse, y_test_score))
总结
就测试集和训练集均方根误差之差来说, 线性回归最大, 岭回归最小, 另外回归在测试集的拟合优度最大, 总体来说, 岭回归在此数据集上表现略优.
就这个评分来说, 以上模型还不是很好, 还需要学习其他模型, 比如决策树, 随机森林, 神经网络等.
以上便是我本次分享的内容,如
以上是关于Python数据分析--Kaggle共享单车项目实战的主要内容,如果未能解决你的问题,请参考以下文章
火炉炼AI机器学习007-用随机森林构建共享单车需求预测模型