机器学习笔记—再谈广义线性模型

Posted 代冕

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记—再谈广义线性模型相关的知识,希望对你有一定的参考价值。

前文从线性回归和 Logistic 回归引出广义线性回归的概念,很多人还是很困惑,不知道为什么突然来个广义线性回归,有什么用?只要知道连续值预测就用线性回归、离散值预测就用 Logistic 回归不就行了?还有一些概念之间的关系也没理清,例如线性回归和高斯分布、Logistic 回归和伯努利分布、连接函数和响应函数。

这种困惑是可以理解的,前文为了引导快速入门,从实战解题的角度推出了答案,但对其背后的概率假设解释不足,虽然线性回归专门开辟一节来介绍高斯分布假设,但很多人误以为这一节的目的只是为了证明最小均方误差的合理性,Logistic 回归的伯努利分布假设也需做解释。

线性回归是建立在高斯分布的假设上,Logistic 回归是建立在伯努利分布的假设上。如果不能从概率的角度理解线性回归和 Logistic 回归,就不能升一级去理解广义线性回归,而广义线性模型就是要将其它的分布也包纳进来,提取这些分布模型的共同点,成为一个模型,这样再遇到其它分布,如多项式分布、泊松分布、伽马分布、指数分布、贝塔分布和 Dirichlet 分布等,就可以按部就班地套模型进行计算了。

 

 

参考资料:

1、http://cs229.stanford.edu/notes/cs229-notes1.pdf

以上是关于机器学习笔记—再谈广义线性模型的主要内容,如果未能解决你的问题,请参考以下文章

广义线性模型 - Andrew Ng机器学习公开课笔记1.6

斯坦福吴恩达教授机器学习公开课第四讲笔记——牛顿方法/广义线性模型

R语言学习笔记:广义线性模型

机器学习-广义线性模型

机器学习笔记

机器学习笔记