吴恩达机器学习-2-梯度下降与正规方程

Posted 尤尔小屋的猫

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了吴恩达机器学习-2-梯度下降与正规方程相关的知识,希望对你有一定的参考价值。

公众号:尤而小屋
作者:Peter
编辑:Peter

吴恩达机器学习-2-梯度下降与正规方程

第二周主要讲解的内容包含:

  • 多维特征
  • 多变量梯度下降
  • 梯度下降法实践
  • 正规方程

多维特征Multiple Features

还是利用房价模型的例子,增加了更多的特征,比如:房间楼层、房间数量、地理位置等,构成了一个含有多个变量的模型

n:代表的是特征的数量

x ( i ) x^{(i)} x(i):代表第 i i i个训练实例,是特征矩阵中的第 i i i行,是一个向量vector

x j ( i ) x^{(i)}_{j} xj(i):表示的是第 i i i个训练实例的第 j j j个特征;i表示行,j表示列

支持多变量的假设 h h h表示为: h θ ( x ) = θ 0 + θ 1 x 1 + … + θ n x n h_{\\theta}(x)=\\theta_0+\\theta_1x_1+…+\\theta_nx_n hθ(x)=θ0+θ1x1++θnxn 为了简化公式,引入 x 0 = 1 x_0=1 x0=1,公式转化为: h θ ( x ) = θ 0 x 0 + θ 1 x 1 + … + θ n x n h_{\\theta}(x)=\\theta_0x_0+\\theta_1x_1+…+\\theta_nx_n hθ(x)=θ0x0+θ1x1++θnxn 特征矩阵X 的维度是 m ∗ ( n + 1 ) m*(n+1) m(n+1),公式简化为: h θ ( x ) = θ T X h_{\\theta}{(x)}=\\theta^{T}X hθ(x)=θTX


多变量梯度下降

算法目标

与单变量线性回归类似,在多变量线性回归中,构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:

J ( θ 0 , θ 1 . . . θ n ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J\\left( {\\theta_{0}},{\\theta_{1}}...{\\theta_{n}} \\right)=\\frac{1}{2m}\\sum\\limits_{i=1}^{m}{{{\\left( h_{\\theta} \\left({x}^{\\left( i \\right)} \\right)-{y}^{\\left( i \\right)} \\right)}^{2}}} J(θ0,θ1...θn)=2m1i=1m(hθ(x(i))y(i))2

其中:

h θ ( x ) = θ T X = θ 0 + θ 1 x 1 + θ 2 x 2 + . . . + θ n x n h_{\\theta}\\left( x \\right)=\\theta^{T}X={\\theta_{0}}+{\\theta_{1}}{x_{1}}+{\\theta_{2}}{x_{2}}+...+{\\theta_{n}}{x_{n}} hθ(x)=θTX=θ0+θ1x1+θ2x2+...+θnxn

算法过程

原始形式: θ j : = θ j − α ∂ J ( θ 0 , θ 1 , . . . , θ n ) ∂ θ j \\theta_j:=\\theta_j-\\alpha \\frac {\\partial J(\\theta_0,\\theta_1,...,\\theta_n)}{\\partial \\theta_j} θj:=θjαθjJ(θ0,θ1,...,θn)

将代价函数 J J J带进去: θ j : = θ j − 1 2 m α ∂ ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 ∂ θ j \\theta_j:=\\theta_j-\\frac{1}{2m} \\alpha \\frac {\\partial \\sum^m_{i=1}(h_{\\theta}(x^{(i)})-y^{(i)})^2}{\\partial \\theta_j} θj:=θj2m1αθji=1m(hθ(x(i))y(i))2

求导数之后: $ \\theta_j:=\\theta_j-\\frac{1}{m} \\alpha \\summ_{i=1}((h_{\\theta}(x{(i)})-y^{(i)})\\cdot x_j^{(i)} $ 其中 j ∈ ( 0 , 1 , 2 , … , n ) j\\in{(0,1,2,…,n)} j(0,1,2,,n)

n > = 1 n>=1 n>=1时, θ 0 : = θ 0 − a 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x 0 ( i

以上是关于吴恩达机器学习-2-梯度下降与正规方程的主要内容,如果未能解决你的问题,请参考以下文章

吴恩达机器学习17:正规方程

吴恩达-coursera-机器学习-week2

机器学习|多变量线性回归 | 吴恩达学习笔记

斯坦福公开课-机器学习2.监督学习应用-梯度下降(吴恩达 Andrew Ng)

斯坦福公开课-机器学习2.监督学习应用-梯度下降(吴恩达 Andrew Ng)

跟着吴恩达老师学习机器学习的第七天 - logistic回归的假设函数math表达式+决策界限+代价函数+简化代价函数和logistic回归方程的梯度下降+用逻辑回归解决多类别分类问题