Logistic Regression 笔记与理解

Posted TaylorHere

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Logistic Regression 笔记与理解相关的知识,希望对你有一定的参考价值。

Logistic Regression 笔记与理解

Logistic Regression

Hypothesis 记为 H(theta)

H(theta)=g(z)
其中g(z),是一个叫做Logistic Function的函数,g(z)函数定义如下:
image
对应图像如下:
image
这是一个值域为0~1的s型函数,在理解中可以认为:
落在曲线上的任意一点A
A的横坐标对应的纵坐标值是z参数,或者说z对象属于“1”的概率。
在Logistic Regression中

g(z)的参数z为:

一个线性或非线性函数的向量化表示
这个函数对应的图像被称作决策边界
两种决策边界的例子:
线性:
image
非线性:
image
为了方便,以下我们只讨论线性边界的情况
线性边界的表示为
X’*theta
image
所以Logistic Regression Hypothesis 定义如下:
image
如上所说,Hypothesis定义了结果取1的概率,因此对于输入x分类结果为类别1和类别0的概率分别为:
image
以上是Logistic Regression Hypothesis 的理解

Logistic Regression Cost Function 记为 J(theta)

Cost 的主要功能是计算H(theta)和答案Y的差距,在线性回归中这个差距可以用方差解决,但是Logistic问题只有+-两种答案,所以Logistic Regression的Cost函数应该是这样的:
image
整合为一个函数
image
我们便得到了Logistic Regression的Cost Function。

接下来就是求解Cost Function最小值的方法-梯度下降

或使用Matlab 内建miniziae函数

以上是关于Logistic Regression 笔记与理解的主要内容,如果未能解决你的问题,请参考以下文章

Logistic Regression 笔记与理解

Logistic Regression 笔记与理解

logistic regression与最大熵模型·最大熵模型

logistic regression与最大熵模型·最大熵模型

模式识别与机器学习——logistic regression

详解线性分类-逻辑回归(Logistic Regression)白板推导系列笔记