机器学习|数学基础Mathematics for Machine Learning系列之线性代数:矩阵的运算
Posted 海轰Pro
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习|数学基础Mathematics for Machine Learning系列之线性代数:矩阵的运算相关的知识,希望对你有一定的参考价值。
文章目录
前言
Hello!小伙伴!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,有幸拿过一些国奖、省奖…已保研。目前正在学习C++/Linux/Python
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
机器学习小白阶段
文章仅作为自己的学习笔记 用于知识体系建立以及复习
知其然 知其所以然!
往期文章
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(2):n阶行列式、对换
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(3):行列式的性质
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(4):行列式按行(列)展开
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(5):克拉默法则
2.1 矩阵
定义
由 m ∗ n m*n m∗n个数 a i j ( i = 1 , 2 , . . . , m ; j = 1 , 2 , . . . , n ) a_{ij}(i=1,2,...,m; j=1,2,...,n) aij(i=1,2,...,m;j=1,2,...,n)排成的m行n列的数表,称为m行n列矩阵,记作
A = [ a 11 a 12 . . . a 1 n a 21 a 22 . . . a 2 n . . . . . . a m 1 a m 2 . . . a m n ] A=\\begin{bmatrix} a_{11} & a_{12} &... & a_{1n}\\\\ a_{21} & a_{22} & ... &a_{2n}\\\\ . & . & & . \\\\ . & . & & . \\\\ a_{m1} & a_{m2} &... & a_{mn}\\\\ \\end{bmatrix} A=⎣⎢⎢⎢⎢⎡a11a21..am1a12a22..am2.........a1na2n..amn⎦⎥⎥⎥⎥⎤
这 m ∗ n m*n m∗n个数称为矩阵A的元素,简称元, a i j a_{ij} aij位于矩阵A的第i行第j列,称为矩阵A的(i,j)元。
矩阵类型
常用矩阵有:
- n阶矩阵或n阶方阵
- 行矩阵
- 列矩阵
- 同型矩阵
- 零矩阵
- 对角矩阵
行数、列数都为n的矩阵称为n阶矩阵或n阶方阵
n阶方阵/矩阵也记作 A n A_n An
行矩阵(或行向量,只有一行的矩阵)
A
=
[
a
1
,
a
2
,
.
.
.
,
a
n
]
A=\\begin{bmatrix} a_1,a_2,...,a_n \\end{bmatrix}
A=[a1,a2,...,an]
列矩阵(或列向量,只有一列的矩阵)
B
=
[
b
1
b
2
.
.
.
b
n
]
B=\\begin{bmatrix} b_1\\\\ b_2\\\\ .\\\\ .\\\\ .\\\\ b_n \\end{bmatrix}
B=⎣⎢⎢⎢⎢⎢⎢⎡b1b2...bn⎦⎥⎥⎥⎥⎥⎥⎤
同型矩阵:两个矩阵的行数、列数都相等。
如果两个矩阵是同型矩阵,且对应的元素也相等,那么称这两个矩阵相等,记作 A = B A=B A=B
零矩阵:元素都是0的矩阵
单位矩阵(或单位阵):矩阵的左上角到右下角的直线(主对角线)上的元素都是1,其余元素都为0
E = [ 1 0 . . . 0 0 1 . . . 0 . . . . . . 0 0 . . . 1 ] E=\\begin{bmatrix} 1 & 0 &... & 0\\\\ 0 & 1 &... & 0\\\\ . & . & & . \\\\ . & . & & . \\\\ 0 & 0 &... & 1\\\\ \\end{bmatrix} E=⎣⎢⎢⎢⎢⎡10..001..0.........00..1⎦⎥⎥⎥⎥⎤
对角矩阵(或对角阵):不在主对角线上的元素都为0,也记作 A = d i a g ( λ 1 , λ 2 , . . . , λ n ) A=diag(\\lambda _1,\\lambda _2,...,\\lambda _n) A=diag(λ1,λ2,...,λn)
E = [ λ 1 0 . . . 0 0 λ 2 . . . 0 . . . . . . 0 0 . . . λ n ] E=\\begin{bmatrix} \\lambda _1 & 0 &... & 0\\\\ 0 & \\lambda _2 &... & 0\\\\ . & . & & . \\\\ . & . & & . \\\\ 0 & 0 &... & \\lambda _n\\\\ \\end{bmatrix} E=⎣⎢⎢⎢⎢⎡λ10..00λ2..0机器学习|数学基础Mathematics for Machine Learning系列之图论:树及其性质
机器学习|数学基础Mathematics for Machine Learning系列之图论:树及其性质
机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理
机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理
机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理
机器学习|数学基础Mathematics for Machine Learning系列之矩阵理论(16):向量和矩阵的极限