SciKit Learn R-squared 与 Pearson's Correlation R 的平方非常不同

Posted

技术标签:

【中文标题】SciKit Learn R-squared 与 Pearson\'s Correlation R 的平方非常不同【英文标题】:SciKit Learn R-squared is very different from square of Pearson's Correlation RSciKit Learn R-squared 与 Pearson's Correlation R 的平方非常不同 【发布时间】:2021-04-25 19:01:28 【问题描述】:

我有 2 个 numpy 数组,就像这样:

a = np.array([32.0, 25.97, 26.78, 35.85, 30.17, 29.87, 30.45, 31.93, 30.65, 35.49, 
              28.3, 35.24, 35.98, 38.84, 27.97, 26.98, 25.98, 34.53, 40.39, 36.3])

b = np.array([28.778585, 31.164268, 24.690865, 33.523693, 29.272448, 28.39742,
              28.950092, 29.701189, 29.179174, 30.94298 , 26.05434 , 31.793175,
              30.382706, 32.135723, 28.018875, 25.659306, 27.232124, 28.295502,
              33.081223, 30.312504])

当我使用 SciKit Learn 计算 R 平方时,我得到的值完全与我计算 Pearson 相关然后对结果求平方时不同:

sk_r2 = sklearn.metrics.r2_score(a, b)
print('SciKit R2: :0.5f\n'.format(sk_r2))

pearson_r = scipy.stats.pearsonr(a, b)
print('Pearson R: ', pearson_r)
print('Pearson R squared: ', pearson_r[0]**2)

结果: SciKit R2:0.15913

皮尔逊 R: (0.7617075766854164, 9.534162339384296e-05) 皮尔逊 R 平方:0.5801984323799696

我意识到,对于拟合不佳的模型 (https://stats.stackexchange.com/questions/12900/when-is-r-squared-negative),R 平方值有时可能为负值,因此 Pearson 相关性的平方并不总是等于 R 平方。但是,我认为对于正 R 平方值,它总是等于 Pearson 的相关平方?这些 R 平方值有何不同?

【问题讨论】:

【参考方案1】:

我也遇到了同样的情况。对我来说,当我将 scikit-learn 中的 R-squared 与 R-squared 进行比较时发生了这种情况,因为它是由 R caret 包计算的。

R 插入符号包中的 R 平方,或者在您的情况下,scipy.stats.pearsonr 的定义是“Pearson R”的平方。相关性的度量。参见它的定义here(根据定义可以在 0 和 1 之间)。

但是,scikit-learn 中的 R 平方是准确度的衡量标准,您可以在其 user guide 中查看其定义。(根据定义可以在 -Inf 和 1 之间)。

底线,不要比较它们。它们是不同的措施。

【讨论】:

请正确阅读问题。我没有直接将 Pearson 相关性与 R 平方进行比较。我将 Pearson 相关性 (pearson_r[0]**2) 的平方与 R 平方进行比较。对于正的 R 平方值,它们应该相等。【参考方案2】:

皮尔逊相关系数R和R平方决定系数是两个完全不同的统计量。

你可以看看 https://en.wikipedia.org/wiki/Pearson_correlation_coefficient 和 https://en.wikipedia.org/wiki/Coefficient_of_determination


更新

人的r系数是衡量两个变量之间线性相关性的指标,是

其中bar xbar y 是样本的均值。

R2 决定系数是拟合优度的量度,是

其中hat yy 的预测值,bar y 是样本的平均值。

这样

    他们测量不同的东西 r**2 不等于 R2 因为它们的公式完全不同

更新 2

r**2 等于 R2 仅在您使用变量(例如 y)和来自线性模型的预测变量 hat y 计算 r 的情况下

让我们用你提供的两个数组做一个例子

import numpy as np
import pandas as pd
import scipy.stats as sps
import statsmodels.api as sm
from sklearn.metrics import r2_score as R2
import matplotlib.pyplot as plt

a = np.array([32.0, 25.97, 26.78, 35.85, 30.17, 29.87, 30.45, 31.93, 30.65, 35.49, 
              28.3, 35.24, 35.98, 38.84, 27.97, 26.98, 25.98, 34.53, 40.39, 36.3])

b = np.array([28.778585, 31.164268, 24.690865, 33.523693, 29.272448, 28.39742,
              28.950092, 29.701189, 29.179174, 30.94298 , 26.05434 , 31.793175,
              30.382706, 32.135723, 28.018875, 25.659306, 27.232124, 28.295502,
              33.081223, 30.312504])

df = pd.DataFrame(
    'x': a,
    'y': b,
)

df.plot(x='x', y='y', marker='.', ls='none', legend=False);

现在我们拟合线性回归模型

mod = sm.OLS.from_formula('y ~ x', data=df)
mod_fit = mod.fit()
print(mod_fit.summary())

输出

                            OLS Regression Results                            
==============================================================================
Dep. Variable:                      y   R-squared:                       0.580
Model:                            OLS   Adj. R-squared:                  0.557
Method:                 Least Squares   F-statistic:                     24.88
Date:                Mon, 29 Mar 2021   Prob (F-statistic):           9.53e-05
Time:                        14:12:15   Log-Likelihood:                -36.562
No. Observations:                  20   AIC:                             77.12
Df Residuals:                      18   BIC:                             79.12
Df Model:                           1                                         
Covariance Type:            nonrobust                                         
==============================================================================
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
Intercept     16.0814      2.689      5.979      0.000      10.431      21.732
x              0.4157      0.083      4.988      0.000       0.241       0.591
==============================================================================
Omnibus:                        6.882   Durbin-Watson:                   3.001
Prob(Omnibus):                  0.032   Jarque-Bera (JB):                4.363
Skew:                           0.872   Prob(JB):                        0.113
Kurtosis:                       4.481   Cond. No.                         245.
==============================================================================

计算r**2R2,我们可以看到在这种情况下它们是相等的

predicted_y = mod_fit.predict(df.x)
print("R2 :", R2(df.y, predicted_y))
print("r^2:", sps.pearsonr(df.y, predicted_y)[0]**2)

输出

R2 : 0.5801984323799696
r^2: 0.5801984323799696

您所做的R2(df.x, df.y) 不能等于我们的计算值,因为您使用了独立x 和相关y 变量之间的拟合优度度量。我们将rR2y 和预测值y 一起使用。

【讨论】:

请正确阅读问题。我没有直接将 Pearson 相关性与 R 平方进行比较。我将 Pearson 相关性 (pearson_r[0]**2) 的平方与 R 平方进行比较。对于正的 R 平方值,它们应该相等。 我用完整的解释更新了答案 这根本不是真的。在只有一个预测变量的简单线性回归的情况下,R2 = r2 = Corr(x,y)**2。见此链接:economictheoryblog.com/2014/11/05/proof 我解释了更多,希望现在清楚了:-)

以上是关于SciKit Learn R-squared 与 Pearson's Correlation R 的平方非常不同的主要内容,如果未能解决你的问题,请参考以下文章

[机器学习与scikit-learn-2]:如何学习Scikit-learn

[机器学习与scikit-learn-4]:scikit-learn机器学习的一般流程与案例演示

Scikit-learn,GroupKFold 与洗牌组?

scikit-learn 逻辑回归预测与自我实现不同

GradientBoostingClassifier 与 scikit-learn 中的 BaseEstimator?

scikit-learn与Serverless架构结合