统计机器学习-2-矩阵范数与导数

Posted esc_ai

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了统计机器学习-2-矩阵范数与导数相关的知识,希望对你有一定的参考价值。

1、矩阵和行列式

矩阵的知识是从行列式而来,矩阵和行列式的区别在于矩阵是一张表,行列式是一个数

如下,

A是一个矩阵:

(1) A = [ 1 2 3 4 5 6 7 8 9 ] A = \\left[ \\beginmatrix 1 & 2 & 3 \\\\ 4 & 5 & 6 \\\\ 7 & 8 & 9 \\endmatrix \\right] \\tag1 A=147258369(1)

B是一个行列式:

(2) B = ∣ 1 2 3 4 5 6 7 8 9 ∣ = 0 B = \\left| \\beginmatrix 1 & 2 & 3 \\\\ 4 & 5 & 6 \\\\ 7 & 8 & 9 \\endmatrix \\right| \\tag2=0 B=147258369=0(2)

2、矩阵和向量

向量是一个特殊的矩阵,其行或列数目为1。
矩阵A的一个3*1的列向量 x ⃗ \\vec x x 为:

(3) x ⃗ = [ 1 4 7 ] \\vec x = \\left[ \\beginmatrix 1 \\\\ 4 \\\\ 7 \\endmatrix \\right] \\tag3 x =147(3)

A的一个1*3的行向量 y ⃗ \\vec y y 为:

(4) x ⃗ = ∣ 1 2 3 ∣ \\vec x = \\left| \\beginmatrix 1 & 2 & 3 \\\\ \\endmatrix \\right|\\tag4 x =123(4)

3.向量范数

向量范数: 给向量赋予一个正标量值,或者简单理解为向量的模。
(5) z ⃗ = [ 1 4 7 ] \\vec z = \\left[ \\beginmatrix 1 \\\\ 4 \\\\ 7 \\endmatrix \\right] \\tag5 z =147(5)

向量 z ⃗ \\vec z z 的模记通常记作 ∣ ∣ z ⃗ ∣ ∣ ||\\vec z|| z (或 ∣ ∣ z ⃗ ∣ ∣ 2 ||\\vec z||_2 z 2) :

(5) ∣ ∣ z ⃗ ∣ ∣ = [ 1 4 7 ] = 1 2 + 4 2 + 7 2 ||\\vec z||= \\left[ \\beginmatrix 1 \\\\ 4 \\\\ 7 \\endmatrix \\right] \\tag5 = \\sqrt1^2+4^2+7^2 z =147=12+42+72 (5)

范数有不同的计算方法,上面介绍的是比较常用的求模方法,向量还有其他范数:

向量的1范数(L1范数): 各元素的绝对值之和:

∣ ∣ X ⃗ ∣ ∣ 1 = ∑ i = 1 n X i ||\\vec X||_1=\\sum_i=1^nX_i X 1=i=1nXi

向量的2范数,各元素平方和再开根号:

∣ ∣ X ⃗ ∣ ∣ 2 = ∑ i = 1 n X i 2 ||\\vec X||_2=\\sqrt\\sum_i=1^nX_i^2 X 2=i=1nXi2

向量的p范数,各元素绝对值的p次方再开q次方:

∣ ∣ X ⃗ ∣ ∣ P = ( ∑ i = 1 n ∣ X i ∣ p ) 1 / p ||\\vec X||_P =( \\sum_i=1^n|X_i|^p)^1/p X P=(i=1nXi深度学习中的数学基础总结

动手学深度学习v2学习笔记02:线性代数矩阵计算自动求导

矩阵的F-范数 的作用?

向量与矩阵 导数和偏导数 特征值与特征向量 概率分布 期望方差 相关系数

machine_math

标量向量矩阵张量之间的区别和联系