scikit-learn:通过Non-negative matrix factorization (NMF or NNMF)实现LSA(隐含语义分析)

Posted mthoutai

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scikit-learn:通过Non-negative matrix factorization (NMF or NNMF)实现LSA(隐含语义分析)相关的知识,希望对你有一定的参考价值。


之前写过两篇文章。各自是

1)矩阵分解的综述:scikit-learn:2.5.矩阵因子分解问题

2)关于TruncatedSVD的简介:scikit-learn:通过TruncatedSVD实现LSA(隐含语义分析)

今天发现NMF也是一个非常好非常有用的模型,就简介一下。它也属于scikit-learn:2.5.矩阵因子分解问题的一部分。


NMF是还有一种压缩方法,前提是如果数据矩阵是非负的。

在数据矩阵不包括负值的情况下。 NMF能够取代PCA及他的变形(NMF can be plugged in instead of PCA or its variants, in the cases where the data matrix does not contain negative values.)。

他通过把X分解成W和H。并优化下式:

技术分享

This norm is an obvious extension of the Euclidean norm to matrices. (Other optimization objectives have been suggested in the NMF literature, in particular Kullback-Leibler divergence, but these are not currently implemented.)


和PCA不同的是。NNMF通过增量式(通过叠加每个子成分而不做相减操作)的方式表示一个向量,这样的增量式模型能有效表示图像和文本。


NNMF实现了非负双神秘值分解( Nonnegative Double Singular Value Decomposition,NNDSVD)。NNDSVD基于两个SVD过程。一个SVD过程用来近似数据矩阵,还有一个SVD过程利用单位秩矩阵的代数性质来近似第一步产生的SVD因子的正值部分。NNDSVD的基本实现能非常好地用于稀疏矩阵分解。

对于非稀疏矩阵,能够使用变形NNDSVDa (in which all zeros are set equal to the mean of all elements of the data)和NNDSVDar (in which the zeros are set to random perturbations less than the mean of the data divided by 100)


这个样例非常不错哦:

http://scikit-learn.org/stable/auto_examples/applications/topics_extraction_with_nmf.html#example-applications-topics-extraction-with-nmf-py







以上是关于scikit-learn:通过Non-negative matrix factorization (NMF or NNMF)实现LSA(隐含语义分析)的主要内容,如果未能解决你的问题,请参考以下文章

scikit-learn 中的 minibatch kmeans 是不是通过使用部分拟合进行增量学习?

无法运行适合 svm 的方法(通过 scikit-learn)

scikit-learn:通过Non-negative matrix factorization (NMF or NNMF)实现LSA(隐含语义分析)

无法在 Pycharm 中和通过苹果 m1 上的 cli 安装包 scikit-learn

[机器学习与scikit-learn-33]:算法-回归-通过PolynomialFeatures实现数据的升维

scikit-learn.impute 没有使用机器学习 A-Z 教程中的代码通过 Spyder 从 Imputer 导入