线性回归中的截距
Posted
技术标签:
【中文标题】线性回归中的截距【英文标题】:Intercept in linear regression 【发布时间】:2020-01-28 16:06:27 【问题描述】:我是机器学习的新手,我对线性回归截距参数的作用感到困惑。
设置参数fit_intercept=False
时,我得到.coef
_值为287.986236,然而,当设置fit_intercept=True
时,我得到.coef
_值为 225.81285046.
为什么会有差异?而且我不确定如何解释结果并比较这些值!
lm = LinearRegression(fit_intercept=False).fit(REStaten_[['GROSS_SQUARE_FEET']], REStaten_['SALE_PRICE'])
lm.coef_
# 287.986236
lm = LinearRegression(fit_intercept=True).fit(REStaten_[['GROSS_SQUARE_FEET']], REStaten_['SALE_PRICE'])
lm.coef_
# 225.81285046
【问题讨论】:
看[这个] (***.com/questions/46779605/…) In the LinearRegression method in sklearn, what exactly is the fit_intercept parameter doing?的可能重复 【参考方案1】: 斜率和截距是线性回归中非常重要的概念。 slope 表示直线的陡度,intercept 表示它与轴相交的位置。 如果我们将 Intercept 设置为 False,则不会在计算中使用任何截距(例如,预计数据已经居中)。当我们在数据集中使用 LR 模型时,它试图通过增加或减少 Slope 和 Intercept 值来绘制“最佳拟合线”。 您得到不同的 .coef_ 值,因为您在第一次尝试时禁用了 Intercept 参数并在第二次尝试时启用它。
希望这会有所帮助。有关更多信息,您可以参考 scikit-learn 文档。 Sk Learn Linear regression
【讨论】:
以上是关于线性回归中的截距的主要内容,如果未能解决你的问题,请参考以下文章