机器学习笔记03:Normal equation与梯度下降的比较

Posted xietx1995

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习笔记03:Normal equation与梯度下降的比较相关的知识,希望对你有一定的参考价值。

《机器学习笔记02》中已经讲了多变量的梯度下降法,以及其他的一些小技巧和注意事项。下面来讲一种更加数学化的方法,我们称之为Normal equation,网上也没找到什么标准的翻译,就暂且称其为矩阵方程法吧。


一、简单回顾梯度下降

如下图所示,我们在进行梯度下降的时候,一般都会执行多次迭代,才能得出最佳的一组 θ 值。


我们能不能只用一次数学意义上的计算就能把所有的 θ 值都求出来呢,答案是可以的,我们用到的就是 normal equation(矩阵方程法)


二、Normal equation

先来看看单元变量的Normal equation方法:

1.当 θR 时,误差函数为

J(θ)=aθ2+bθ+c 此时只需要很简单地对 θ 求导数,使其导数为 0 即可求出 θ LetθJ(θ)=0
2.当 θRn+1 时,误差函数为 J(θ0,θ1,...,θn)=12mi=1m(hθ(x(i))y(i))2 我们只要对每个 θ 求偏导数,并使其为 0 即可求出每个 θ 的值: LetθjJ(θ)=0(j=0,1,2,...,n) 这种方法是不是很简单。

我们来看个已经用烂了的例子:房价预测
假设我们有如下的训练数据(样本数量 m=4 ,特征数量 n=4

Size( feet2 )Number of bedroomsNumber of floorsAge of house(years)Price( $ 1000)
x0 x1 x2 x3 x4 y
1 2104 5 1 45 460
1 1416 3 2 40 232
1 1534 3 2 30 315
1 852 2 1 36 178


我们记X=11112104141615348525332122145403036;y=[ML]简单的Normal Equation对数据点进行线性回归

转载:Normal Equation证明及应用

Normal Equation(正规方程)

Normal equations 正规方程组

opencv学习笔记03-鼠标回调与trackbar

python实现normal equation进行一元多元线性回归