逻辑斯谛回归

Posted luyunan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了逻辑斯谛回归相关的知识,希望对你有一定的参考价值。

hypothesis

逻辑斯蒂回归的模型假设是在线性回归的基础上加了一个激活层:
[ h (x) = frac{1}{1 + e^{- heta ^T x}} ]
如此我们就可以将线性回归值映射到 ((0, 1)) 上。关于这个模型输出值,我们可以这么理解 (P(y^{(i)} = 1| x^{(i)} ) = h (x^{(i)}))。为什么不是 (P(y^{(i)} = 0 | x^{(i)}))?其实完全可以,这取决于我们在训练过程中损失函数的设计。若当 $ y^{(i)} = 0, ?h (x^{(i)}) ightarrow 1$ 时损失函数增大,则我们是认为 (P(y^{(i)} = 1| x^{(i)} ) = h (x^{(i)}))的;反之若减小,则我们认为 (P(y^{(i)} = 0| x^{(i)} ) = h (x^{(i)}))

learning criteria

我们希望当 (h (x^{(i)}) ightarrow 1, y = 0) 时损失函数尽可能大,反之尽可能小。当 (y^{(i)} = 1) 时为 $ -log(h (x^{(i)}))$;当 (y^{(i)} = 0) 时为 $ -log(1-h (x^{(i)}))$ 。将这两种情况合并起来,单样本损失函数如下:
[ delta (h (x^{(i)}), y^{(i)}) = -y cdot log(h (x^{(i)})) - (1 - y) cdot log(1-h (x^{(i)})) ]
模型假设的损失函数如下:
[ J( heta) = frac{1}{n} sum_{i=1}^{n} -y cdot log(h (x^{(i)})) - (1 - y) cdot log(1-h (x^{(i)})) ]

gradient

(frac{partial delta }{partial heta}= -frac{y^{(i)} }{h} cdot h cdot (1 - h) cdot x^{(i)}+ frac{1-y^{(i)}}{1-h} cdot h cdot (1-h) cdot x^{(i)} =x^{(i)} cdot (h - y^{(i)}))
(frac{partial J}{partial heta} = frac{1}{n} sum_{i=1}^n x^{(i)} cdot (h - y^{(i)}))
我们可以发现,其导数为 feature · error 的形式。

以上是关于逻辑斯谛回归的主要内容,如果未能解决你的问题,请参考以下文章

《统计学习方法》--逻辑斯谛回归模型

李航统计学习方法(第二版):逻辑斯谛回归

逻辑斯谛回归

逻辑斯谛回归,softmax回归与最大熵模型

线性回归算法和逻辑斯谛回归算法详细介绍及其原理详解

逻辑斯谛回归