线性回归(HGL的读书笔记2)

Posted LeonHuo

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性回归(HGL的读书笔记2)相关的知识,希望对你有一定的参考价值。

线性回归:是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。

对于一般训练集:

????技术分享

????技术分享

参数系统为:

????技术分享

线性模型为:

????技术分享

线性回归的目的为最小化J(θ)

????技术分享

简单线性回归模型为:

????技术分享

定义残差均方和(residual sum of squares, RSS, J(θ))

技术分享

通过微分运算,使RSS最小的参数估计为

技术分享

技术分享

其中,技术分享技术分享技术分享技术分享的估计值。

对于一般线性系统

????技术分享

其中技术分享 技术分享 技术分享θ的估计值

线性回归的概率解释(Probabilistic interpretaion)[1]

假设:

????技术分享

其中,技术分享为误差(error),可能又许多原因引起,一般情况下服从正太分布(也有特殊情况,但是比较少见,引起误差的原因很多,每种原因相互独立,由中心极限可知,对于大多数问题,使用线性系统,尝试测量误差,误差一般服从正太分布,所以假设误差是正态分布是很好的假设)。所以:

技术分享

由于技术分享,可以得到:

????技术分享

可以理解为技术分享服从均值为技术分享,方差为技术分享的正太分布,可以得到:

????技术分享

????其中,技术分享中不把θ作为随机变量。技术分享可以理解为技术分享服从技术分享对于θ的高斯分布。

对于每一个技术分享是独立同分布的(Independently Identically Dstributed, IID),所以有:

????技术分享

这里取值越贴近技术分享的概率越大,所以选择θ使L(θ)最大,为了数学上的便利,将L(θ)转换为log 的形式,因为log 的形式不改变L(θ)的单调性,所以有:

????技术分享

所以最大化l(θ)等价于最小化函数:

????技术分享

得到了线性回归的目标函数。

以上是关于线性回归(HGL的读书笔记2)的主要内容,如果未能解决你的问题,请参考以下文章

线性回归(HGL的机器学习笔记2)

机器学习周志华 读书笔记 第三章 线性模型

机器学习实战读书笔记Logistic回归

《Python深度学习》第三章-2(波士顿房价-回归问题)读书笔记

大话数据结构读书笔记系列线性表

数据结构(严蔚敏吴伟民)——读书笔记-2 线性表及其基本运算顺序存储结构