KL变换+PCA+关系

Posted Data+Science+Insight

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了KL变换+PCA+关系相关的知识,希望对你有一定的参考价值。

KL变换+PCA+关系

 

KL变换和KL散度的关系?

In mathematical statistics, the Kullback–Leibler divergence (also called relative entropy) is a measure of how one probability distribution is different from a second, reference probability distribution.

KL 散度是一种衡量两个概率分布的匹配程度的指标,两个分布差异越大,KL散度越大。

以上是关于KL变换+PCA+关系的主要内容,如果未能解决你的问题,请参考以下文章

模式识别(Pattern Recognition)学习笔记(三十五)-- K-L变换与PCA

pytorch代码中的KL-divergence与公式有啥关系?

数据清洗和特征选择→PCA→1.算法理解

PCA理论与实践

matlab中pca

PIE SDK主成分变换