Logistic Regression 笔记与理解

Posted slgkaifa

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Logistic Regression 笔记与理解相关的知识,希望对你有一定的参考价值。

Logistic Regression 笔记与理解

Logistic Regression

Hypothesis 记为 H(theta)

H(theta)=g(z)
当中g(z),是一个叫做Logistic Function的函数。g(z)函数定义例如以下:
技术分享
相应图像例如以下:
技术分享
这是一个值域为0~1的s型函数,在理解中能够觉得:
落在曲线上的随意一点A
A的横坐标相应的纵坐标值是z參数,或者说z对象属于“1”的概率。
在Logistic Regression中

g(z)的參数z为:

一个线性或非线性函数的向量化表示
这个函数相应的图像被称作决策边界
两种决策边界的样例:
线性:
技术分享
非线性:
技术分享
为了方便,下面我们仅仅讨论线性边界的情况
线性边界的表示为
X’*theta
技术分享
所以Logistic Regression Hypothesis 定义例如以下:
技术分享
如上所说,Hypothesis定义了结果取1的概率,因此对于输入x分类结果为类别1和类别0的概率分别为:
技术分享
以上是Logistic Regression Hypothesis 的理解

Logistic Regression Cost Function 记为 J(theta)

Cost 的主要功能是计算H(theta)和答案Y的差距,在线性回归中这个差距能够用方差解决。可是Logistic问题仅仅有+-两种答案,所以Logistic Regression的Cost函数应该是这种:
技术分享
整合为一个函数
技术分享
我们便得到了Logistic Regression的Cost Function。

接下来就是求解Cost Function最小值的方法-梯度下降

或使用Matlab 内建miniziae函数




























以上是关于Logistic Regression 笔记与理解的主要内容,如果未能解决你的问题,请参考以下文章

Logistic Regression 笔记与理解

Logistic Regression 笔记与理解

logistic regression与最大熵模型·最大熵模型

logistic regression与最大熵模型·最大熵模型

模式识别与机器学习——logistic regression

详解线性分类-逻辑回归(Logistic Regression)白板推导系列笔记