机器学习公式推导

Posted dabokele

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习公式推导相关的知识,希望对你有一定的参考价值。

  本篇笔记主要记录及推导Andrew NG的Machine Learning课程中出现的公式。

  我们假设对于任意的分类、聚类、回归等问题在自然界中总是存在一个精确的模型与之相对应,接下来我们要做的就是根据获取的样本来反推并确定这个模型。由于我们毕竟无法遍历这个问题所有的情况,所以我们只能根据获取的样本去尽可能接近的确定这个模型。

  公式化上面这段描述,问题对应的模型就藏在假设空间(Hypothesis) hθ(x) h θ ( x ) 中,我们需要通过观测样本,确定其中的 θ θ 值。在确定 θ θ 值的过程中,定义一个损失函数(Cost Function) J(θ) J ( θ ) ,如果我们获取的样本在某一个参数 θ θ 时使损失值达到最小,即表示当前 θ θ 值确定的模型可以使预测值很接近观察值。那么这个模型就是我们需要寻找的。

  对于监督学习,我们要做的就是确定目标函数,损失函数,然后通过样本训练,得到损失值最小的那一组参数值,用该参数值代入目标函数,即可得到对应问题的模型。

一、线性回归模型

1、单一变量的线性回归模型

  目标函数

hθ(x)=θ0+θ1x h θ ( x ) = θ 0 + θ 1 x
   损失函数 J(θ0,θ1)=12mi=1m(hθ(x(i))y(i))2 J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2

  公式说明:
   hθ(x(i)):i h θ ( x ( i ) ) : 第 i 个 样 本
   y(i):i y ( i ) : 第 i 个 样 本 对 应 的 实 际 值

  接下来的目标就是找到一组参数值,使得损失函数值最小,即

minimizeθ0,θ1J(θ0,θ1) m i n i m i z e θ 0 , θ 1 J ( θ 0 , θ 1 )

  求损失函数最小值时,使用梯度下降(Gradient descent)的方法。在微积分中我们学过梯度,梯度方向是函数值下降最快的方向,所以在梯度下降方法中,我们分别求 θ0θ1 θ 0 和 θ 1 的偏导数,然后用该导数值更新参数值。

repeat until convergenceθj:=θjαθjJ(θ0,θ1)(for j = 1 and j = 0)(7) (7) r e p e a t   u n t i l   c o n v e r g e n c e θ j := θ j − α ∂ ∂ θ j J ( θ 0 , θ 1 ) ( f o r   j   =   1   a n d   j   =   0 )

  说明,上面公式中的 机器学习集成学习(Boosting)——AdaBoost提升算法(理论+图解+公式推导)

机器学习线性回归的损失和优化

手推机器学习 吴恩达 神经网络BP反向传播 示例推导(下篇)

机器学习P6 逻辑回归的 损失函数 以及 梯度下降

深度学习公式推导:神经元的数学公式

机器学习线性回归优化损失函数