线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)
Posted vincentbnu
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)相关的知识,希望对你有一定的参考价值。
还是不习惯这种公式的编写,还是直接上word。。。。
对上面的(7)式取log后并最大化即可得到最小二乘法,即 argmaxθ J(θ)
思考二:线性回归到逻辑回归的转变:
1) 引入逻辑回归,假设用线性回归来做分类问题,设为二分类,即y取0或1。
则会出现如下的情况:
这种情况下是能很好的分类的,但若数据是如下所示呢:
则分类很不好。
思考三:逻辑回归损失函数的得来(解释):
答,也是通过最大似然得到的。y的取值为0,1;则认为这是一个伯努力的分布,也称为两点的分布,则公式表示如下:
注:公式(27)最后一行的公式写错了,少了个log,正确公式应是如下:
四:逻辑函数(Logistic function)或者是S形函数(Sigmoid function) 的由来:
总结:
1)算法是一个很有逻辑(严谨)的一门学科,都有因果和解释。
2)还有最大似然 法是神器,许多算法的推导都是从其开始的,若 最大似然法 加上 贝叶斯公式就更是神器啦!
参考: 线性回归、logistic回归、广义线性模型——斯坦福CS229机器学习个人总结:
https://blog.csdn.net/sinat_37965706/article/details/69204397
Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization:
https://blog.csdn.net/sinat_37965706/article/details/69204397
以上是关于线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)的主要内容,如果未能解决你的问题,请参考以下文章
斯坦福吴恩达教授机器学习公开课第二讲笔记——有/无监督学习+线性回归
吴恩达机器学习第三周:Logistic Regression逻辑回归
斯坦福吴恩达教授机器学习公开课第五讲笔记——判别分析/高斯判别分析/GPA+逻辑回归/laplace平滑/极大似然的原理