矩阵的特征值,特征向量,和特征根是啥?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了矩阵的特征值,特征向量,和特征根是啥?相关的知识,希望对你有一定的参考价值。

参考技术A

特征根:

特征根法也可用于通过数列的递推公式(即差分方程,必须为线性)求通项公式,其本质与微分方程相同。

 称为二阶齐次线性差分方程:  加权的特征方程。

特征向量:

A为n阶矩阵,若数λ和n维非0列向量x满足Ax=λx,那么数λ称为A的特征值,x称为A的对应于特征值λ的特征向量。

式Ax=λx也可写成( A-λE)x=0,并且|λE-A|叫做A 的特征多项式。当特征多项式等于0的时候,称为A的特征方程,特征方程是一个齐次线性方程组,求解特征值的过程其实就是求解特征方程的解。

令|A-λE|=0,求出λ值。

A是n阶矩阵,Ax=λx,则x为特征向量,λ为特征值。

一旦找到两两互不相同的特征值λ,相应的特征向量可以通过求解方程(A – λI) v = 0 得到,其中v为待求特征向量,I为单位阵。

当特征值出现重根时,如λ1=λ2,此时,特征向量v1的求解方法为(A-λ1I)v1=0,v2为(A-λ2I)v2=v1,依次递推。

没有实特征值的一个矩阵的例子是顺时针旋转90度。

扩展资料:

矩阵的特征向量是矩阵理论上的重要概念之一,它有着广泛的应用。数学上,线性变换的特征向量(本征向量)是一个非简并的向量,其方向在该变换下不变。该向量在此变换下缩放的比例称为其特征值(本征值)。

一个线性变换通常可以由其特征值和特征向量完全描述。特征空间是相同特征值的特征向量的集合。“特征”一词来自德语的eigen。1904年希尔伯特首先在这个意义下使用了这个词,更早亥尔姆霍尔兹也在相关意义下使用过该词。eigen一词可翻译为”自身的”、“特定于……的”、“有特征的”、或者“个体的”,这显示了特征值对于定义特定的线性变换的重要性。

从数学上看,如果向量v与变换A满足Av=λv,则称向量v是变换A的一个特征向量,λ是相应的特征值。这一等式被称作“特征值方程”。

假设它是一个线性变换,那么v可以由其所在向量空间的一组基表示为:

其中vi是向量在基向量上的投影(即坐标),这里假设向量空间为n 维。由此,可以直接以坐标向量表示。利用基向量,线性变换也可以用一个简单的矩阵乘法表示。上述的特征值方程可以表示为:

但是,有时候用矩阵形式写下特征值方程是不自然甚或不可能的。例如在向量空间是无穷维的时候,上述的弦的情况就是一例。取决于变换和它所作用的空间的性质,有时将特征值方程表示为一组微分方程更好。若是一个微分算子,其特征向量通常称为该微分算子的特征函数。例如,微分本身是一个线性变换因为(若M和N是可微函数,而a和b是常数)

考虑对于时间t的微分。其特征函数满足如下特征值方程:

其中λ是该函数所对应的特征值。这样一个时间的函数,如果λ = 0,它就不变,如果λ为正,它就按比例增长,如果λ是负的,它就按比例衰减。例如,理想化的兔子的总数在兔子更多的地方繁殖更快,从而满足一个正λ的特征值方程。

特征根法是数学中解常系数线性微分方程的一种通用方法。特征根法也可用于通过数列的递推公式(即差分方程,必须为线性)求通项公式,其本质与微分方程相同。例如 称为二阶齐次线性差分方程: 加权的特征方程。

参考资料:百度百科-特征根法 百度百科-特征向量

在 python 中查找特征值/向量的最快方法是啥?

【中文标题】在 python 中查找特征值/向量的最快方法是啥?【英文标题】:whats the fastest way to find eigenvalues/vectors in python?在 python 中查找特征值/向量的最快方法是什么? 【发布时间】:2011-10-04 18:47:02 【问题描述】:

目前我正在使用 numpy 来完成这项工作。但是,由于我正在处理具有数千行/列的矩阵,后来这个数字将上升到数万,我想知道是否存在可以更快地执行这种计算的包?

【问题讨论】:

numpy 不能很好地扩展吗?我认为它是为这样的事情而设计的。这不是矢量化操作的重点吗? 数万不是很多,numpy会很快粉碎它。 【参考方案1】:

**如果您的矩阵是稀疏的,则使用 scipy.sparse 中的构造函数实例化您的矩阵,然后使用 spicy.sparse.linalg 中的类似特征向量/特征值方法.从性能的角度来看,这有两个优点:

您的矩阵由辣味.sparse 构造函数构建而成,与它的稀疏程度成正比。

用于稀疏矩阵(eigseigsh)的eigenvalue/eigenvector methods 接受可选参数k,它是您想要返回的特征向量/特征值对。几乎总是解释 >99% 的方差所需的数量远远少于列数,您可以事后验证;换句话说,您可以告诉方法不要计算并返回所有特征向量/特征值对——除了考虑方差所需的(通常)小子集之外,您不太可能需要其余部分。

改用 SciPy 中的线性代数库, scipy.linalg NumPy 的同名库。这两个库有 相同的名称并使用相同的方法名称。不过性能还是有区别的。 这种差异是由于 numpy.linalg 是一个 less 对类似 LAPACK 例程的忠实包装 为了便携性和便利性而牺牲一些性能(即, 遵守整个 NumPy 库的 NumPy 设计目标 应该在没有 Fortran 编译器的情况下构建)。 linalgSciPy 上 另一方面是 LAPACK 上更完整的包装器,其中 使用 f2py

选择适合您用例的函数;换句话说,不要使用功能超出您的需要。在 scipy.linalg 有几个函数可以计算特征值;这 差异不大,但通过仔细选择功能 要计算特征值,您应该会看到性能提升。为了 实例:

scipy.linalg.eig 返回 both 特征值和 特征向量 scipy.linalg.eigvals,只返回特征值。所以如果你只需要矩阵的特征值,那么不要使用linalg.eig,而是使用linalg.eigvals。 如果你有一个实值平方对称矩阵(等于它的转置)然后使用 scipy.linalg.eigsh

优化您的 Scipy 构建 准备您的 SciPy 构建环境 主要在 SciPy 的 setup.py 脚本中完成。也许 在性能方面最重要的选项是确定任何优化的 LAPACK 库,例如 ATLAS 或 Accelerate/vecLib 框架(OS X 只有?)以便 SciPy 可以检测到它们并针对它们进行构建。 根据您目前拥有的装备,优化您的 SciPy 构建然后重新安装可以为您提供可观的性能 增加。 SciPy 核心团队的其他说明是here。

这些函数是否适用于大型矩阵?

我应该是这样想的。这些是工业强度的矩阵分解方法,它们只是类似 Fortran LAPACK 例程的薄包装。

我已经使用 linalg 库中的大多数方法来分解矩阵,其中列数通常在 5 到 50 之间,并且行数通常超过 500,000。 SVDeigenvalue 方法在处理这种大小的矩阵时似乎都没有任何问题。

使用 SciPylinalg,您可以使用此库中的多种方法中的任何一种,通过一次调用来计算特征向量和特征值,eig eigvalsheigh

>>> import numpy as NP
>>> from scipy import linalg as LA

>>> A = NP.random.randint(0, 10, 25).reshape(5, 5)
>>> A
    array([[9, 5, 4, 3, 7],
           [3, 3, 2, 9, 7],
           [6, 5, 3, 4, 0],
           [7, 3, 5, 5, 5],
           [2, 5, 4, 7, 8]])

>>> e_vals, e_vecs = LA.eig(A)

【讨论】:

在我的机器上,numpy 的 eigvals 实际上比 scipy 的快。 我在 40,000 x 40,000 对称稀疏矩阵上使用 scipy.sparse.linalg.eign.eigsh。我花了将近 30 分钟才找到 125 个最小的特征向量。所以我也想知道Python中最有效的特征向量求解器是什么。 最近在 Anaconda 中默认出现的 MKL 在 linalg 优化方面的速度是否一样快? docs.anaconda.com/mkl-optimizations【参考方案2】:

如果你的矩阵是稀疏的,你可以尝试使用scipy的稀疏特征值函数,应该会更快:

http://docs.scipy.org/doc/scipy/reference/sparse.linalg.html

您还可以查看专门的软件包,例如 SLEPc,它具有 python 绑定并且可以使用 mpi 并行进行计算:

http://code.google.com/p/slepc4py/

【讨论】:

以上是关于矩阵的特征值,特征向量,和特征根是啥?的主要内容,如果未能解决你的问题,请参考以下文章

如何求解一个矩阵的特征向量?

如何求稀疏矩阵的全部特征值和特征向量?

怎么用Matlab求矩阵的特征值和特征向量

我想问关于主成分分析法的计算中,需要求特征值,特征向量,但是求它们的原因是啥?

qr分解怎么求特征向量,求矩阵E的特征值和特征向量

怎么用Matlab求矩阵的特征值和特征向量