机器学习002-LDA与KNDA

Posted zzzack

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习002-LDA与KNDA相关的知识,希望对你有一定的参考价值。

参考:LDA kernel LDA

kernel LDA 用到了散度(scatter)的概念,目标是使样本点在高维空间中的投影满足:类内散度最小,类间散度最大。即:
[ J(W^phi)=argmax_{(W^phi)}frac{W^{phi T} S_b^phi W^phi}{W^{phi T} S_w^phi W^phi}\begin{align} 其中,&phi 表示高维空间下的;&S_b^phi类间散度,S_b^phi=sum_{i=1}^{C}N_i(mu_i-mu)(mu_i-mu)^T; &S_w^phi类内散度,S_w^phi=sum_{i=1}^{C}sum_{phi(x_j)∈X_i}(phi(x_j)-mu_i)(phi(x_j)-mu_i)^T;&W^phi是单位正交化的特征向量矩阵,即高维空间中的坐标轴w^phi,&w^phi=sum_{i=1}^Nalpha_iphi(x_i)这是未知的,难以直接计算的,需要借助核函数。\end{align} ]
将核函数引入之后:
[ J(alpha)=argmax_{(alpha)}frac{|alpha^TG_balpha|}{|alpha^TG_walpha|}\begin{align} 其中,&G_b=sum_{i=1}^{C}N_i(m_i-overline m)(m_i-overline m)^T&G_w=sum_{i=1}^{C}sum_{K_j∈X_i}(K_j-m_i)(K_j-m_i)^T&m_i=frac{1}{N_i}sum_{j=1}{N_i}K_j&K_j=(k(x_i,x_1),...,k(x_i,x_N))^T&K_j为核函数矩阵的一个列向量 end{align}\]




以上是关于机器学习002-LDA与KNDA的主要内容,如果未能解决你的问题,请参考以下文章

机器学习 | 机器学习概念理解与基本知识

零基础学Python--机器学习:人工智能与机器学习概述

机器学习数学系列:机器学习与数学基础知识

分享《机器学习与应用》PDF+雷明+资料学习

包邮送书啦|《机器学习与深度学习算法基础》

机器学习与深度学习