[Machine Learning]4.逻辑回归(logistic regression)

Posted LiemZuvon

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[Machine Learning]4.逻辑回归(logistic regression)相关的知识,希望对你有一定的参考价值。

接下来我们将从回归问题切换至分类问题。分类问题的名字logistic regression是由于历史原因,但事实上讨论的并不是用于regression问题,而是classification问题。


分类

在这时,我们的输出值y再也不是连续量,而是离散值,不是0就是1.

y=0代表反向类别,y=1代表正向类别,当然我们也可以根据自身需要给y自己的类别定义。

现在我们只讨论只有两个类别的问题,称为“二元分类问题”。


假说函数表示

根据我们前面的定义,我们的假说函数应该满足


我们在这里的选择是sigmoid函数,也成为“逻辑函数”



sigmoid函数图像如下:


可以看到,在Z=0,也即预估值
=0的时候,假说函数等于0.5,因此,可以用假说函数大等于于0.5说明当前预测值是正向类别的,反之则是反向类别的。

假说函数事实上提供的是一种概率,即类别是正向类别的概率。


决策边界

区分两个类别的边界称为决策边界,其中在如果取
=0作为决策边界,那么由满足
=0的所有x所构成的线即使决策边界,当然,也可以根据需求采取其他的决策边界,比如取满足
=1.0的x值构成的边界作为决策边界,那么此时的分类就会比较严格,在做一些需要安全性较高的预测可以采用这种决策边界。


开销函数

在分类问题中,由于具有不同的类别并且会带来大量的局部最优点,因此不能像回归问题那样简单的计算方差。

取而代之的,我们采用如下的开销函数形式:

Machine Learning — 逻辑回归

导航-机器学习(Machine Learning)

机器学习---逻辑回归(Machine Learning Logistic Regression II)

Machine Learning:机器学习算法

machine learning 之 导论 一元线性回归

Coursera Machine Learning : Regression 多元回归