线性回归

Posted xcxy-boke

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性回归相关的知识,希望对你有一定的参考价值。

基本形式:

    $f(x_i)=W^TX_i + b$,使得$f(x_i) \\approx y_i$

最小二乘估计:

    $\\widehatw^*= \\underset\\widehatwarg min(y - X\\widehatw)^T(y - X\\widehatw)$

令$E_\\widehatw=(y - X\\widehatw)^T(y - X\\widehatw)$对$\\widehatw$其求导:

    $\\frac\\partial E_\\widehatw\\partial x=2 X^T(X\\widehatw-y)$

如果$X^TX$为满秩矩阵或正定矩阵时,令上式为0:

    $\\widehatw^*=(X^TX)^-1X^Ty$

    

logistic回归:把x映射到0-1范围内。

    $y=\\frac11+e^-z$  (sigmoid函数)

    $ln\\fracy1-y=w^Tx+b$

确定w和b:

    $ln\\fracp(y=1|x)p(y=0|x)=w^Tx+b$

显然有:

    $p(y=1|x) = \\frace^w^Tx+b1+e^w^Tx+b$

    $p(y=0|x) = \\frac11+e^w^Tx+b$

通过极大似然法:

最大化:

    $\\iota (w,b)=\\sum_i=1^m ln(p(y_i|x_i;w,b))$    

因为$p(y_i|x_i;w,b)=y_iP_1(\\widehatx_i;\\beta )+(1-y_iP_0(\\widehatx_i;\\beta ))$,所以等价于最小化:

    $\\iota (\\beta )=\\sum_i=1^m (-y_i\\beta^Tx_i + ln(1+e^\\beta^Tx_i))$  (把常数去掉)

牛顿法:

    $\\beta^t+1=\\beta^t-(\\frac\\partial^2 \\iota (\\beta)\\partial \\beta \\partial \\beta^T)^-1\\frac\\partial \\iota (\\beta)\\partial \\beta$ 

技术图片

    

 

以上是关于线性回归的主要内容,如果未能解决你的问题,请参考以下文章

spss非线性回归分析步骤

R语言回归分析(regression)常见算法:简单线性回归多项式回归多元线性回归多水平回归多输出回归逻辑回归泊松回归cox比例风险回归时间序列分析非线性回归非参数回归稳健回归等

以下回归模型中属于线性回归模型的都有哪些

线性回归和线性回归方程是怎样的呢?

回归分析 R语言 -- 多元线性回归

线性回归