机器学习——局部加权回归,逻辑回归

Posted daizigege

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习——局部加权回归,逻辑回归相关的知识,希望对你有一定的参考价值。

局部加权回归( locally weighted regression )

特征选择问题:underfitting,overfitting

parametric learing algorithm:有固定数目的参数以用来数据拟合的算法;

Non-parametric learing algorithm:参数随着训练集大小线性增长;

LWR:fit ( heta) to minimize (sum_iw^{(i)}(y^{(i)}- heta^Tx^{(i)})^2) where (w^{(i)}=exp(-frac{{(x^{(i)}-x)^2}}{2 au^2 }))

解得( heta=(X^TWX)^{-1}X^TWy)

备注:每次预测一个,都需要重新建立模型;

为什么选择最小二乘:

assume (y^{(i)}= heta^Tx^{(i)}+varepsilon ^{(i)})

(P(varepsilon ^{(i)})=frac{1}{sqrt{2pi}sigma}exp{(-frac{(varepsilon ^{(i)})^2}{2sigma})}) 假设为高斯分布的原因:一个合理准确的假设(中心极限定理);数学计算的便利;

so $y^{(i)}|x^{(i)}; heta $ ~ (N ( heta^Tx^{(i)},sigma^2)) 其中( heta)不是随机变量,所以用的是分号;

$varepsilon ^{(i)}s $ are IID independently identically distributed

(L( heta)=P(vec y|X; heta))=Pi_{i=1}^mP(y^{(i)}|x^{(i)}; heta))

极大似然估计:choose ( heta) to maximize (L( heta))

(LL( heta)=log L( heta)=sum_{(i=1)}^mlog[frac{1}{sqrt{2pi}sigma}exp{(-frac{(varepsilon ^{(i)})^2}{2sigma})}]=mlogfrac{1}{sqrt{2pi}sigma}+sum_{i=1}^m-frac{(y^{(i)}- heta^Tx^{(i)})^2}{2sigma})

to minimizie (J( heta)=sum_{i=1}^{m}frac{(y^{(i)}- heta^Tx^{(i)})^2}{2})

logistic回归:(离散)分类算法,解决二分类问题

逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model)。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从 高斯分布。

(yepsilon {0,1}h_ heta(x)epsilon[0,1])

choose假设函数: (h_ heta(x)=g( heta^Tx)=frac{1}{1+e^{- heta^Tx}}) g(z)为logistic或者sigmoid函数

(P(y=1|x; heta)=h_ heta(x)) (P(y=0|x; heta)=1-h_ heta(x)) ->(P(y|x; heta)=(1-h_ heta(x))^{1-y}h_ heta(x)^y)

决策边界:一个方程,分开两个部分

在逻辑回归中,假设函数(h=g(z))用于计算样本属于某类别的可能性;决策函数(h=1(g(z)>0.5))用于计算(给出)样本的类别;决策边界(θ^Tx=0)是一个方程,用于标识出分类函数(模型)的分类边界。

代价函数:

(L( heta)=P(vec y|X; heta))=Pi_{i=1}^m(1-h_ heta(x^{(i)}))^{1-y^{(i)}}h_ heta(x^{(i)})^{y^{(i)}})

(LL( heta)=logL( heta)) 可以用梯度上升法做,其中(frac{partial }{partial heta_j}LL( heta)=sum_{i=1}^m(y^{(i)}-h_ heta(x^{(i)}))x_j^{(i)})

矩阵法更新公式: W=W+(Y-W(X^{(i)^T})(X^{(i)})

以上是关于机器学习——局部加权回归,逻辑回归的主要内容,如果未能解决你的问题,请参考以下文章

机器学习:局部加权线性回归(Locally Weighted Linear Regression)

机器学习-局部加权回归

局部加权回归(HGL的机器学习笔记3)

局部加权回归(HGL的机器学习笔记3)

机器学习笔记:局部加权回归 LOESS

机器学习:局部加权线性回归(Locally Weighted Linear Regression)