线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)

Posted vincentbnu

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)相关的知识,希望对你有一定的参考价值。

还是不习惯这种公式的编写,还是直接上word。。。。

技术分享图片

技术分享图片

技术分享图片

技术分享图片

对上面的(7)式取log后并最大化即可得到最小二乘法,即 argmaxθ J(θ)

 

思考二:线性回归到逻辑回归的转变:

1) 引入逻辑回归,假设用线性回归来做分类问题,设为二分类,即y取0或1。

则会出现如下的情况:

 

 技术分享图片

技术分享图片

 

 

 

这种情况下是能很好的分类的,但若数据是如下所示呢:

 

 技术分享图片

技术分享图片

则分类很不好。

技术分享图片

 

 技术分享图片

思考三:逻辑回归损失函数的得来(解释):

    答,也是通过最大似然得到的。y的取值为0,1;则认为这是一个伯努力的分布,也称为两点的分布,则公式表示如下:

技术分享图片

技术分享图片

注:公式(27)最后一行的公式写错了,少了个log,正确公式应是如下:

  技术分享图片

四:逻辑函数(Logistic function)或者是S形函数(Sigmoid function) 的由来:

 技术分享图片

 

总结:

1)算法是一个很有逻辑(严谨)的一门学科,都有因果和解释。

2)还有最大似然 法是神器,许多算法的推导都是从其开始的,若 最大似然法 加上 贝叶斯公式就更是神器啦!

 

参考:  线性回归、logistic回归、广义线性模型——斯坦福CS229机器学习个人总结:

    https://blog.csdn.net/sinat_37965706/article/details/69204397

    Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization:

    https://blog.csdn.net/sinat_37965706/article/details/69204397


以上是关于线性回归和 逻辑回归 的思考(参考斯坦福 吴恩达的课程)的主要内容,如果未能解决你的问题,请参考以下文章

斯坦福吴恩达教授机器学习公开课第二讲笔记——有/无监督学习+线性回归

吴恩达机器学习——线性回归

吴恩达机器学习第三周:Logistic Regression逻辑回归

斯坦福吴恩达教授机器学习公开课第五讲笔记——判别分析/高斯判别分析/GPA+逻辑回归/laplace平滑/极大似然的原理

吴恩达机器学习-3-逻辑回归与正则化问题

吴恩达-coursera-机器学习-week3