PCA(主成分分析)+LDA(线性判别分析)+区别

Posted Data+Science+Insight

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PCA(主成分分析)+LDA(线性判别分析)+区别相关的知识,希望对你有一定的参考价值。

PCA(主成分分析)+LDA(线性判别分析)+区别

 

一、LDA算法

  基本思想:LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。

  浅显来讲,LDA方法的考虑是,对于一个多类别的分类问题,想要把它们映射到一个低维空间,如一维空间从而达到降维的目的,我们希望映射之后的数据间,两个类别之间“离得越远”,且类别内的数据点之间“离得越近”,这样两个类别就越好区分。因此LDA方法分别计算“within-class”的分散程度Sw和“between-class”的分散程度Sb,而我们希望的是Sb/Sw越大越好,从而找到最合适的映射向量w。

 

   

 

  LDA算法的主要优点有:

    1)在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。

    2)LDA在样本分类信息依赖均值而不是方差的时候,比

以上是关于PCA(主成分分析)+LDA(线性判别分析)+区别的主要内容,如果未能解决你的问题,请参考以下文章

机器学习 —— 基础整理:特征提取之线性方法——主成分分析PCA独立成分分析ICA线性判别分析LDA

主成分分析(PCA)与线性判别分析(LDA)

线性判别分析(LDA)原理

线性判别分析LDA总结

主成分分析(PCA)

降维技术2-线性判别分析(LDA)