逻辑回归

Posted 醉月风纯

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了逻辑回归相关的知识,希望对你有一定的参考价值。

对于特征\\(x=(x_1,x_2,..,x_d)\\)来说,我们可以计算器加权“风险分数”$$s=\\sum_{i=0}^d w_ix_i$$
但这是一个实数领域的数值,我们想把其映射到0到1之间来表示不同类别的概率,则可使用下面sigmoid函数:

sigmoid函数公式是\\(\\theta(x)=\\frac{1}{1+e^{-x}}\\),把\\(w^Tx\\)带入得\\(f(x)=\\frac{1}{1+e^{-w^Tx}}\\)

知道了函数形式,下面要求逻辑回归函数的损失函数,我们的函数等价于\\(f(x)=P(+1|x)\\)。假设我们的数据集为\\(D=\\{(x_1,-1),(x_2,1),...,(x_N,1)\\}\\),那么这个数据集出现的几率是\\(P(x_1)P(-1|x_1)P(x_2)P(1|x_2)...P(x_N)P(1|X_N)\\),那么f(x)产生这样一个数据集的可能性为 \\(P(x_1)h(x_1)P(x_2)(1-h(x_2))...P(x_N)(1-h(x_N))\\),如果h和f是相近的,那么h对数据集的概率应该和f是相近的,而由于f的数据集是已经出现的,那么根据大数定律则可认为f产生的数据集概率是比较大的。

那么,最大化

\\[likelihood(h)=P(x_1)h(x_1)P(x_2)(1-h(x_2))...P(x_N)(1-h(x_N)) =h(x_1)h(-x_2)...h(-x_N) =\\prod_{n=1}h(y_nx_n) \\]

等价于\\(max_wlikelihood(w)=\\prod_{n=1}^N\\theta(y_nw^Tx_n)\\),两边同时取对数得\\(max_wlog likelihood(w)=\\sum_{n=0}^Nln\\theta(w^Tx_ny_n)\\),由于我们一直求的都是极小值,所以对其做个转化\\(min_wlog likelihood(w)=\\sum_{n=0}^N-ln\\theta(w^Tx_ny_n)\\),由于\\(\\theta(s)=\\frac{1}{1+exp^{(-s)}}\\),带入得$$min_w\\frac{1}{N}\\sum_{n=1}Nln(1+exp(-y_nwTx_n))$$,\\(ln(1+exp(-y_nw^Tx_n))\\)可被称作是逻辑回归的单点误差,即\\(err(w,x,y) = ln(1+exp(-y_nw^Tx_n))\\)

我们的目标是要最小化误差函数,即\\(min_wE_{in}(w)=\\frac{1}{N}\\sum_{n=1}^Nln(1+exp^{(-y_{nw^Tx_n})})\\),对两边求导得:

\\[\\partial \\]

以上是关于逻辑回归的主要内容,如果未能解决你的问题,请参考以下文章

逻辑回归原理

线性回归逻辑回归

逻辑回归解决啥问题

数据挖掘系列 啥是逻辑回归训练模型?

逻辑回归算法原理是啥?

逻辑斯谛(Logistic)回归参数估计教程