机器学习|数学基础Mathematics for Machine Learning系列之线性代数:逆矩阵
Posted 海轰Pro
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习|数学基础Mathematics for Machine Learning系列之线性代数:逆矩阵相关的知识,希望对你有一定的参考价值。
前言
Hello!小伙伴!
非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出~
自我介绍 ଘ(੭ˊᵕˋ)੭
昵称:海轰
标签:程序猿|C++选手|学生
简介:因C语言结识编程,随后转入计算机专业,有幸拿过一些国奖、省奖…已保研。目前正在学习C++/Linux/Python
学习经验:扎实基础 + 多做笔记 + 多敲代码 + 多思考 + 学好英语!
机器学习小白阶段
文章仅作为自己的学习笔记 用于知识体系建立以及复习
知其然 知其所以然!
往期文章
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(2):n阶行列式、对换
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(3):行列式的性质
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(4):行列式按行(列)展开
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(5):克拉默法则
【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(6):矩阵的运算
2.3 逆矩阵
定义
对于n阶矩阵
A
A
A,如果有一个n阶矩阵
B
B
B,使得
A
B
=
B
A
=
E
AB=BA=E
AB=BA=E
说明矩阵A是可逆的,并把矩阵B称为A的逆矩阵,简称逆阵
记住
如果矩阵A是可逆的,那么A的逆矩阵一定是唯一的。
证:
假设 B、C均是A的逆矩阵,有
B = B E = B ( A C ) = ( B A ) C = E C = C B=BE=B(AC)=(BA)C=EC=C B=BE=B(AC)=(BA)C=EC=C
得出 B=C
所以
A的逆矩阵是唯一的。
写法
A
A
A的逆矩阵记作
A
−
1
A^{-1}
A−1
若
A
B
=
B
A
=
E
,
则
B
=
A
−
1
AB=BA=E,则B=A^{-1}
AB=BA=E,则B=A−1
定理1
内容
若矩阵A可逆,那么 ∣ A ∣ ≠ 0 |A|\\neq 0 ∣A∣=0
证明
因为 矩阵A可逆
那么一定有
A
−
1
A^{-1}
A−1,使得
A A − 1 = E AA^{-1}=E AA−1=E
推出
∣ A A − 1 ∣ = ∣ E ∣ = = > ∣ A ∣ ∣ A − 1 ∣ = ∣ E ∣ = 1 = = > ∣ A ∣ ≠ 0 |AA^{-1}|=|E| \\\\==> |A||A^{-1}|=|E|=1\\\\ ==> |A|\\neq 0 ∣AA−1∣=∣E∣==>∣A∣∣A−1∣=∣E∣=1==>∣A∣=0
定理2
内容
若 ∣ A ∣ ≠ 0 |A|\\neq 0 ∣A∣=0,则矩阵 A A A可逆,且 A − 1 = 1 ∣ A ∣ A ∗ A^{-1}=\\frac{1}{|A|}A^* A−1=∣A∣1A∗,其中 A ∗ A^* A∗为 A A A的伴随矩阵
证明
已知 A A ∗ = ∣ A ∣ E AA^*=|A|E AA∗=∣A∣E (|A|是一个常数)
因为 ∣ A ∣ ≠ 0 |A|\\neq 0 ∣A∣=0
所以 1 ∣ A ∣ A A ∗ = A 1 ∣ A ∣ A ∗ = A ( 1 ∣ A ∣ A ∗ ) = E \\frac{1}{|A|}AA^*=A\\frac{1}{|A|}A^*=A(\\frac{1}{|A|}A^*)=E ∣A∣1AA∗=A∣A∣1A∗=A(∣A∣1A∗)=E
又因为 A ∗ A = A A ∗ A^*A=AA^* A∗A=AA∗
所以 1 ∣ A ∣ A A ∗ = 1 ∣ A ∣ A ∗ A = ( 1 ∣ A ∣ A ∗ ) A = E \\frac{1}{|A|}AA^*=\\frac{1}{|A|}A^*A=(\\frac{1}{|A|}A^*)A=E ∣A∣1AA∗=∣A∣1A∗A=(∣A∣1A∗)A=E
由
{ A ( 1 ∣ A ∣ A ∗ ) = E ( 1 ∣ A ∣ A ∗ ) A = E \\begin{cases} A(\\frac{1}{|A|}A^*)=E \\\\ (\\frac{1}{|A|}A^*)A=E \\end{cases} {A(∣A∣1A∗)=E(∣A∣1A∗)A=E
得知 矩阵A存在逆矩阵,
且 A − 1 = 1 ∣ A ∣ A ∗ A^{-1}=\\frac{1}{|A|}A^* A−1=∣A∣1A∗
证明完成!
推论
若 A B = E ( 或 B A = E AB=E(或BA=E AB=E(或BA=E,则 B = A − 1 B=A^{-1} B=A−1
证明:
因为 A B = E AB=E AB=E
所以 ∣ A ∣ ∣ B ∣ = ∣ E ∣ = 1 |A||B|=|E|=1 ∣A∣∣B∣=∣E∣=1
故 ∣ A ∣ ≠ 0 |A|\\neq0 ∣A∣=0, A − 1 A^{-1} A−1存在
B = E B = ( A − 1 A ) B = A − 1 ( A B ) = A − 1 E = A − 1 B=EB=(A^{-1}A)B=A^{-1}(AB)=A^{-1}E=A^{-1} B=以上是关于机器学习|数学基础Mathematics for Machine Learning系列之线性代数:逆矩阵的主要内容,如果未能解决你的问题,请参考以下文章
机器学习|数学基础Mathematics for Machine Learning系列之图论:树及其性质
机器学习|数学基础Mathematics for Machine Learning系列之图论:树及其性质
机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理
机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理
机器学习|数学基础Mathematics for Machine Learning系列之图论(10):匹配基本定理
机器学习|数学基础Mathematics for Machine Learning系列之矩阵理论(16):向量和矩阵的极限