机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程)

Posted walegahaha

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程)相关的知识,希望对你有一定的参考价值。

一、多变量的线性回归

在#机器学习系列一#中,我们讨论了单变量的线性回归,而多变量的线性回归与单变量类似,一致内容就不再赘述了。首先我们来看一个例子,下表是波特兰的房子价格,针对不同的房屋面积和卧室间数。

房屋面积/ ft2 卧室/间价格/美元房屋面积/ ft2 卧室/间价格/美元
2104339990019624259900
1600332990038903573900
2400336900011003249900
1416223200014583464500
3000453990025263469000
1985429990022003475000
1534331490026373299900
1427319899918392349900
1380321200010001169900
1494324250020404314900
1940423999931373579900
2000334700018114285900
1890332999914373249900
4478569990012393229900
1268325990021324345000
2300444990042154549000
1320229990021624287000
1236319990016642368500
2609449999822383329900
3031459900025674314000
1767325290012003299000
188822550008522179900
1604324290018524299900
12033239500

在这里我们先规定一下符号记法:

符号含义
m 训练样本的个数
n每个训练样本的特征个数
x 训练样本中的输入变量
y训练样本中的输出变量
(x(i),y(i)) i 个训练样本
x(i)j i 个训练样本的输入变量的第j个特征
hθ(x) 输入变量 x 与输出变量y的映射关系

在本例中,训练样本个数 m 为47;输入变量的特征数n为2,分别为房屋面积和卧室间数; x(i)1 为第 i 个样本的房屋面积,x(i)2为第 i 个样本的卧室间数,y(i)为第 i 个样本的房屋价格,例x(1)=[21043]T y(1)=399900 。有了训练样本,下一步我们需要用一种算法得到一个比较好的映射关系 hθ(x) ,当给定房屋面积和卧室间数 x 时,通过映射关系可以得到一个符合训练样本规律的房屋价格 y 。由于我们现在讨论的是多变量的线性回归,因此我们假设

hθ(x)=θ0+θ1x1+θ2x2(1)
同单变量线性回归一样,我们定义一个代价函数 J(θ0,θ1,θ2) 。这样,问题就转化为寻找一组 θ0 θ1 θ2 使得 J(θ0,θ1,θ2) 最小。 机器学习入门:多变量线性回归

机器学习入门:多变量线性回归

机器学习入门:多变量线性回归

机器学习入门系列三(关键词:逻辑回归,正则化)

机器学习入门:线性回归及梯度下降

机器学习 | 实验二:多变量线性回归