Jacobian矩阵,Hessian矩阵和牛顿法

Posted multiangle

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Jacobian矩阵,Hessian矩阵和牛顿法相关的知识,希望对你有一定的参考价值。


转自 : http://jacoxu.com/jacobian%E7%9F%A9%E9%98%B5%E5%92%8Chessian%E7%9F%A9%E9%98%B5/

Jacobian矩阵

在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式.
雅可比矩阵的重要性在于它体现了一个可微方程与给出点的最优线性逼近. 因此, 雅可比矩阵类似于多元函数的导数.

假设 F:RnRm 是一个从欧式n维空间转换到欧式m维空间的函数. 这个函数由m个实函数组成: y1(x1,,xn),,ym(x1,,xn). 这些函数的偏导数(如果存在)可以组成一个m行n列的矩阵, 这就是所谓的雅可比矩阵:

y1x1ymx1y1xnymxn
本质上是一个列向量对列向量求偏微分。此矩阵表示为:
JF(x1,...,xn) 或者 (y1,...,ym)(x1,...,xn)
如果 P Rn中的一点, F P点可微分, 那么在这一点的导数由 JF(P) 给出(这是求该点导数最简便的方法). 在此情况下, 由 F(P) 描述的线性算子即接近点 P F的最优线性逼近, x 逼近于P:
F(x)F(p)+JF(p)(xp)

Hessian矩阵

在数学中, 海森矩阵(Hessian matrix或Hessian)是一个自变量为向量的实值函数的二阶偏导数组成的方块矩阵, 此函数如下:
f(x1,x2,...,xn)
如果f的所有二阶导数都存在, 那么f的海森矩阵即:
H(f)ij(x)=DiDjf(x)
其中H(f)为:

海森矩阵和牛顿法

机器学习之求解无约束最优化问题方法(手推公式版)

机器学习之求解无约束最优化问题方法(手推公式版)

梯度下降法和牛顿法的总结与比较

黑塞矩阵(Hessian Matrix)

牛顿法与拟牛顿法的区别与联系