机器学习笔记—Logistic回归

Posted 小花花108

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记—Logistic回归相关的知识,希望对你有一定的参考价值。

本文申明:本系列笔记全部为原创内容,如有转载请申明原地址出处。谢谢

序言:what is logistic regression? Logistics 一词表示adj.逻辑的;[军]后勤学的n.[逻]数理逻辑;符号逻辑;[军]后勤学, “回归”是由英国著名生物学家兼统计学家高尔顿在研究人类遗传问题时提出来的。为了研究父代与子代身高的关系,高尔顿搜集了1078对父亲及其儿子的身高数据。他发现这些数据的散点图大致呈直线状态,也就是说,总的趋势是父亲的身高增加时,儿子的身高也倾向于增加。但是,高尔顿对试验数据进行了深入的分析,发现了一个很有趣的现象—回归效应。因为当父亲高于平均身高时,他们的儿子身高比他更高的概率要小于比他更矮的概率;父亲矮于平均身高时,他们的儿子身高比他更矮的概率要小于比他更高的概率。它反映了一个规律,即这两种身高父亲的儿子的身高,有向他们父辈的平均身高回归的趋势。对于这个一般结论的解释是:大自然具有一种约束力,使人类身高的分布相对稳定而不产生两极分化,这就是所谓的回归效应。这种方法就被称为回归。

那么logistic回归是不是就是用逻辑进行回归分析,然后做出分类?且听下文慢慢道来。

为了简化分析,我们首先把它定义为一个二分问题,例如:

if x>0.5

print 1

else

print 0

对于现实问题,0.5这个地方一定是一个大的跳跃,那我们该如何定义这个函数呢。

那我们就得从我们伟大的前辈那取经了,我们找到一个叫做Sigmoid的东西,这个函数图像如下:clip_image002

大家看这个函数6不6.

现在我们为了实现logistic回归分类器,我们把数据的特征都乘以一个回归系数(这个回归系数是通过数据学习到的),把这些值加起来,带进我们的sigmoid函数:

clip_image004,进而得到一个范围在0~1之间的数值,任何大于0.5的数据被分入1类,小于0.5的都被分到0类。所以,logistic回归也可是说是一种概率估计。

既然模型已经建立了,那我们接下来要干嘛呢?那是不是变成了确定那个回归系数,那么我们的分类模型是不是就建立了,但是这个最佳模型系数(回归系数)怎么确定呢?

下面我给出是两种方法,大家看看哪种方法比较好:

方法一:梯度上升算法

梯度上升算法的思想是:函数J(A)在某点AK的梯度G[J(AK)]是一个向量,它的方向与过点AK 的等量面J(AK)=C的法线方向重合,指向J(AK)增加的一方,是这个函数变化率最大的方向。相反,负方向就是减少的最快方向,所以求这个函数的最大值或者最小值时,分别沿着正梯度和负梯度方向搜索有可能最快地找到最小值。

梯度算法实现:以梯度上升算法为例,先任意选择一个初始的权向量A1(一般为0)然后计算A1上的梯度G[J(A1)],从A1出发在最陡的方向上移动一个距离d(自己设置)到达A2.那么可以采用下面公式从AK推到AK+1.

AK+1=AK-d G[J(AK)]

我们来补充一下什么叫准则函数 (criterion function):

用具体函数评价系统所采取策略优劣的准则时,称为准则函数。根据实际问题的类型和...准则函数的取值取决于决策者所采取的策略。如果采取某种策略能使准则函数达到最优值时,称这种策略为这种准则的最优策略。

logistic准则函数的定义是:

clip_image006

为什么是这个呢,就是假如我本来属于男性,你非要让我成为女性,是不是分类错误?那么就是负数,我如果是女性你给我分类成男性,是不是也不妥?我们把这些错误的相加,·值越小越好。这样不就可以判别我们的分类器正确率了吗

因为J(AK)的第j个梯度分量是clip_image008。。根据准则函数可以看出:

clip_image010

把这个式子带入到AK+1=AK-d G[J(AK)]可得:

clip_image012

梯度上升算法示意图:

clip_image014

你看那个p一步一个脚印似魔鬼的步伐。这样迭代下去就会趋于稳定。

方法二:固定增量算法

梯度算法缺点:

靠近极值时收敛速度减慢。

直线搜索时可能会产生一些问题。

可能会“之字形”地变化。

那么我们提出固定增量算法:

1全部的样本看成一个序列,每当前一步迭代的权向量把某个样本错误分类是,就对这个权向量作一次修正,而不是等当前向量对全部样本计算后在找出错分类的样本集进行修改。

2每次迭代d保持不变。

设现在有两个分类C和B,我们现在要用一个固定算法决定一个超平面ATY=0,是它能够正确的划分开C和B。开始我们可以任意假定A和B属于决策界面的哪一边。然后依次把A和B中的曾广模式Y取出,计算A与Y的内积ATY。根据内积,权向量A用以下规则调整;

(1) 如果Y∈C,而ATY≤0,则用A+Y代替A;

(2) 如果Y∈B,而ATY≥0,则用A-Y代替A;

(3) 如果Y∈C,而ATY>0,则A保持不变。

(4) 如果Y∈B,而ATY<0,则A保持不变。

迭代终止条件:

  如果在一次迭代中权向量A已经保持不变,则权向量A即解权向量A^,所以在程序收敛之后就不需要也没必要进行进一步的迭代了。

以上是关于机器学习笔记—Logistic回归的主要内容,如果未能解决你的问题,请参考以下文章

机器学习实战笔记 logistic回归

机器学习实战读书笔记Logistic回归

《机器学习实战》学习笔记:Logistic 回归

机器学习笔记—Logistic回归

[机器学习] Coursera ML笔记 - 逻辑回归(Logistic Regression)

机器学习 逻辑回归 Logistic Regression