机器学习|数学基础Mathematics for Machine Learning系列之线性代数:矩阵的运算

Posted 海轰Pro

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习|数学基础Mathematics for Machine Learning系列之线性代数:矩阵的运算相关的知识,希望对你有一定的参考价值。

前言

Hello!小伙伴!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
 
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,有幸拿过一些国奖、省奖…已保研。目前正在学习C++/Linux/Python
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
 
机器学习小白阶段
文章仅作为自己的学习笔记 用于知识体系建立以及复习
知其然 知其所以然!

往期文章

【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数

【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(2):n阶行列式、对换

【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(3):行列式的性质

【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(4):行列式按行(列)展开

【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(5):克拉默法则

2.1 矩阵

定义

m ∗ n m*n mn个数 a i j ( i = 1 , 2 , . . . , m ; j = 1 , 2 , . . . , n ) a_{ij}(i=1,2,...,m; j=1,2,...,n) aij(i=1,2,...,m;j=1,2,...,n)排成的m行n列的数表,称为m行n列矩阵,记作

A = [ a 11 a 12 . . . a 1 n a 21 a 22 . . . a 2 n . . . . . . a m 1 a m 2 . . . a m n ] A=\\begin{bmatrix} a_{11} & a_{12} &... & a_{1n}\\\\ a_{21} & a_{22} & ... &a_{2n}\\\\ . & . & & . \\\\ . & . & & . \\\\ a_{m1} & a_{m2} &... & a_{mn}\\\\ \\end{bmatrix} A=a11a21..am1a12a22..am2.........a1na2n..amn

m ∗ n m*n mn个数称为矩阵A的元素,简称元, a i j a_{ij} aij位于矩阵A的第i行第j列,称为矩阵A的(i,j)元。

矩阵类型

常用矩阵有:

  • n阶矩阵或n阶方阵
  • 行矩阵
  • 列矩阵
  • 同型矩阵
  • 零矩阵
  • 对角矩阵

行数、列数都为n的矩阵称为n阶矩阵或n阶方阵

n阶方阵/矩阵也记作 A n A_n An

行矩阵(或行向量,只有一行的矩阵)
A = [ a 1 , a 2 , . . . , a n ] A=\\begin{bmatrix} a_1,a_2,...,a_n \\end{bmatrix} A=[a1,a2,...,an]
列矩阵(或列向量,只有一列的矩阵)
B = [ b 1 b 2 . . . b n ] B=\\begin{bmatrix} b_1\\\\ b_2\\\\ .\\\\ .\\\\ .\\\\ b_n \\end{bmatrix} B=b1b2...bn

同型矩阵:两个矩阵的行数、列数都相等。

如果两个矩阵是同型矩阵,且对应的元素也相等,那么称这两个矩阵相等,记作 A = B A=B A=B

零矩阵:元素都是0的矩阵

单位矩阵(或单位阵):矩阵的左上角到右下角的直线(主对角线)上的元素都是1,其余元素都为0

E = [ 1 0 . . . 0 0 1 . . . 0 . . . . . . 0 0 . . . 1 ] E=\\begin{bmatrix} 1 & 0 &... & 0\\\\ 0 & 1 &... & 0\\\\ . & . & & . \\\\ . & . & & . \\\\ 0 & 0 &... & 1\\\\ \\end{bmatrix} E=10..001..0.........00..1

对角矩阵(或对角阵):不在主对角线上的元素都为0,也记作 A = d i a g ( λ 1 , λ 2 , . . . , λ n ) A=diag(\\lambda _1,\\lambda _2,...,\\lambda _n) A=diag(λ1,λ2,...,λn)

E = [ λ 1 0 . . . 0 0 λ 2 . . . 0 . . . . . . 0 0 . . . λ n ] E=\\begin{bmatrix} \\lambda _1 & 0 &... & 0\\\\ 0 & \\lambda _2 &... & 0\\\\ . & . & & . \\\\ . & . & & . \\\\ 0 & 0 &... & \\lambda _n\\\\ \\end{bmatrix} E=λ10..00λ2..0机器学习|数学基础Mathematics for Machine Learning系列之图论:树及其性质

机器学习|数学基础Mathematics for Machine Learning系列之图论:树及其性质

机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理

机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理

机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理

机器学习|数学基础Mathematics for Machine Learning系列之矩阵理论(16):向量和矩阵的极限