K-L变换

Posted 小河沟大河沟

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了K-L变换相关的知识,希望对你有一定的参考价值。

      K-L变换( Karhunen-Loeve Transform)是建立在统计特性基础上的一种变换,有的文献也称为霍特林(Hotelling)变换,因他在1933年最先给出将离散信号变换成一串不相关系数的方法。K-L变换的突出优点是去相关性好,是均方误差(MSE,Mean Square Error)意义下的最佳变换,它在数据压缩技术中占有重要地位。

K-L(Karhunen-Loeve)变换形式

设X=(X1,X2,…,XN)T为N维随机矢量,mX=E(X)和CX=E{(X-mX)(X-mX)T}分别为其平均值向量和协方差矩阵,ei和λi分别为CX的特征向量和对应的特征值,其中i=1,…,N,并设特征值已按降序排列,即λ1≥λ2≥…≥λN,则K-L变换式为:[1] 
Y=A(X-mx) (1.1)
其中变换矩阵A的行为CX的特征值,即:
技术分享
式中:eij表示第i个特征向量的第j个分量。

K-L变换的性质

①Y的均值向量为零向量0。即:
mY=E{Y} =E{A(X-mX)}=0 (1.2)
②K-L变换使矢量信号各分量不相关,即变换域信号的协方差为对角矩阵。
技术分享
③K-L反变换式为:
X=A-1Y+mX=ATY+mx (1.3)
④K-L变换是在均方误差准则下失真最小的一种变换,故又称作最佳变换。
这条性质与压缩编码有关。其意义是,如果在数据传输中只传送变换后的前n个系数组成的矢量,则根据这n个系数得到的恢复值可以得到最小的均方误差,其值为:
技术分享
上式表明,在K-L变换下,最小均方误差值等于变换域中矢量信号的最小的N-n个方差的和。特别有意义的是,如果这些分量的均值为零,则在恢复时只要把这些分量置零,便可以使均方误差最小。

图像信号的K-L变换

K-L变换是一维变换,在对图像信号进行变换时,矢量可以是一幅图像或一幅图像中的子图像。矢量各分量之间的相关性反映了像素之间的相关性。为了得到矢量X,可以将图像或子图像的像素按行行相接或列列相接的次序排列,如图1所示。
技术分享
(a)行行相接
技术分享
(b)列列相接
图1由二维图像信号建立矢量信号
在建立了矢量信号之后,就要计算协方差矩阵CX,然后计算的特征矢量才能得到K-L变换矩阵A。
由此可见,尽管K-L变换具有性质(2)和(4)的最佳去相关和误差性能,但是由于求解特征值和特征根并非易事,特别是在维数高时甚至可能求不出来,而且变换矩阵与图像的内容有关,因而难以满足实时处理的要求。但是,K-L变换在变换编码中具有理论指导意义,人们通过比较,寻找出一些性能与K-L变换接近,但实现却容易得多的“准最佳”编码方法。
 

聚类变换认为:重要的分量就是能让变换后类内距离小的分量。类内距离小,意味着抱团抱得紧。但是,抱团抱得紧,真的就一定容易分类么?

如图1所示,根据聚类变换的原则,我们要留下方差小的分量,把方差大(波动大)的分量丢掉,所以两个椭圆都要向y轴投影,这样悲剧了,两个重叠在一起,根本分不开了。而另一种情况却可以这么做,把方差大的分量丢掉,于是向x轴投影,很顺利就能分开了。因此,聚类变换并不是每次都能成功的。

技术分享

图1

 

摧枯拉朽的K-L变换

K-L变换是理论上“最好”的变换:是均方误差(MSE,MeanSquare Error)意义下的最佳变换,它在数据压缩技术中占有重要地位。

 

聚类变换还有一个问题是,必须一类一类地处理,把每类分别变换,让它们各自抱团。

K-L变换要把所有的类别放在一起变换,希望通过这个一次性的变换,让它们分的足够开。

 

K-L变换认为:各类抱团紧不一定好区分。目标应该是怎么样让类间距离大,或者让不同类好区分。因此对应于2种K-L变换。

 

其一:最优描述的K-L变换(沿类间距离大的方向降维)

首先来看个二维二类的例子,如图2所示。

技术分享

图2

 

技术分享

如果使用聚类变换,技术分享方向是方差最小的方向,因此降维向技术分享方向投影,得到2类之间的距离即为2条红线之间的距离,但是这并不是相隔最远的投影方向。将椭圆投影到技术分享方向,得到2类之间的距离为2条绿线之间的距离。这个方向就是用自相关矩阵的统计平均得到的特征向量技术分享

设共有M个类别,各类出现的先验概率为

技术分享

技术分享表示来自第i类的向量。则第i类集群的自相关矩阵为:

技术分享

混合分布的自相关矩阵R是:

技术分享

然后求出R的特征向量和特征值:

技术分享

将特征值降序排列(注意与聚类变换区别)

为了降到m维,取前m个特征向量,构成变换矩阵A

技术分享

以上便完成了最优描述的K-L变换。

 

为什么K-L变换是均方误差(MSE,MeanSquare Error)意义下的最佳变换?

技术分享

其中技术分享表示n维向量y的第j个分量,技术分享表示第个特征分量。

引入的误差

技术分享

均方误差为

技术分享

 

m+1开始的特征值都是最小的几个,所以均方误差得到最小。

 

以上方法称为最优描述的K-L变换,是沿类间距离大的方向降维,从而均方误差最佳。

本质上说,最优描述的K-L变换扔掉了最不显著的特征,然而,显著的特征其实并不一定对分类有帮助。我们的目标还是要找出对分类作用大的特征,而不应该管这些特征本身的强弱。这就诞生了第2种的K-L变换方法。

 

其二:最优区分的K-L变换(混合白化后抽取特征)

针对上述问题,最优区分的K-L变换先把混合分布白化,再来根据特征值的分离程度进行排序。

 

最优区分的K-L变换步骤

首先还是混合分布的自相关矩阵R

技术分享

 

然后求出R的特征向量和特征值:

技术分享

 

以上是主轴变换,实际上是坐标旋转,之前已经介绍过。

令变换矩阵

技术分享

 

则有

技术分享

 

这个技术分享作用是白化R矩阵,这一步是坐标尺度变换,相当于把椭圆整形成圆,如图3所示。

 技术分享

图3

 

以二类混合分布问题为例。

技术分享

 

分别求出二类的特征向量和特征值,有

技术分享

 

则二者的特征向量完全相同,唯一的据别在于其特征根,而且还负相关,即如果技术分享取降序排列时,则技术分享以升序排列。

为了获得最优区分,要使得两者的特征值足够不同。因此,需要舍弃特征值接近0.5的那些特征,而保留使技术分享大的那些特征,按这个原则选出了m个特征向量记作

技术分享

 

则总的最优区分的K-L变换就是:

技术分享


以上是关于K-L变换的主要内容,如果未能解决你的问题,请参考以下文章

常见的变换总结与代码:DCT,STFT,K-L变换等

模式识别(Pattern Recognition)学习笔记(三十五)-- K-L变换与PCA

毕业设计/Matlab系列基于K-L变换的图像压缩matlab实现

模式识别与机器学习——4.3离散K-L变换

PIE SDK主成分变换

12月学习进度12/31——特征提取离散KL变换原理实例以及matlab实现(转载)