PCA和LDA

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PCA和LDA相关的知识,希望对你有一定的参考价值。

参考技术A 在机器学习领域,PCA和LDA都可以看成是数据降维的一种方式。但是PCA是无监督的,也就是说不需要知道sample对应的label,而LDA是监督的,需要知道每一个数据点对应的label。下面分别解释PCA和LDA的基本原理

相同点:

不同点:

面试题:LDA和PCA区别

更多请关注"机器学习算法面试"

相同点

(1)两者的作用是用来降维的

(2)两者都假设符合高斯分布

不同点

(1)LDA是有监督的降维方法,PCA是无监督的。

(2)LDA降维最多降到类别数K-1的维数,PCA没有这个限制。

(3)LDA更依赖均值,如果样本信息更依赖方差的话,效果将没有PCA好。

(4)LDA可能会过拟合数据。

-------更多面试题----

基础概念
逻辑回归与朴素贝叶斯有什么区别
机器学习学习方式主要有哪些?
监督学习的步骤主要有哪些?
逻辑回归与朴素贝叶斯有什么区别
线性回归和逻辑回归的区别
代价函数,损失函数和目标函数的区别?
随机梯度下降法、批量梯度下降法有哪些区别?
LDA和PCA区别?
降维的必要性和目的是什么?
误差、偏差和方差的区别是啥?
梯度下降法缺点
批量梯度下降和随机梯度下降法的缺点?
如何对梯度下降法进行调优?
如何解决欠拟合
过拟合原因
如何解决过拟合
GBM
简单介绍一下XGBoost
XGBoost与GBDT的联系和区别有哪些?
为什么XGBoost泰勒二阶展开后效果就比较好呢?
XGBoost对缺失值是怎么处理的?
XGBoost为什么快
XGBoost防止过拟合的方法
XGBoost为什么若模型决策树的叶子节点值越大,越容易过拟合呢?
XGBoost为什么可以并行训练?
XGBoost中叶子结点的权重如何计算出来
XGBoost中的一棵树的停止生长条件
Xboost中的min_child_weight是什么意思
Xgboost中的gamma是什么意思
Xgboost中的参数
RF和GBDT的区别
xgboost本质上是树模型,能进行线性回归拟合么
Xgboos是如何调参的
为什么xgboost/gbdt在调参时为什么树的深度很少就能达到很高的精度?
为什么常规的gbdt和xgboost不适用于类别特别多的特征?
怎么处理类别特征在树模型下?
集成学习方法
bagging和boosting区别
为什么bagging减少方差
什么场景下采用bagging集成方法
bagging和dropout区别
为什么说bagging是减少variance,而boosting是减少bias?
adaboost为什么不容易过拟合?
组合弱学习器的算法?
DL
基础理论
说一下局部最优与全局最优的区别?
深度学习里,如何判断模型陷入局部最优?
Transfomer
Transformer为何使用多头注意力机制?
Transformer 相比于 RNN/LSTM,有什么优势?为什么
Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?
Transformer计算attention的时候为何选择点乘而不是加法?两者计算复杂度和效果上有什么区别?
为什么在进行softmax之前需要对attention进行scaled
说一下在计算attention score的时候如何对padding做mask操作?
为什么在进行多头注意力的时候需要对每个head进行降维?
大概讲一下Transformer的Encoder模块?
简单介绍一下Transformer的位置编码?有什么意义和优缺点?
你还了解哪些关于位置编码的技术,各自的优缺点是什么?
简单讲一下Transformer中的残差结构以及意义。
为什么transformer块使用LayerNorm而不是BatchNorm?LayerNorm 在Transformer的位置是哪里?
简答讲一下BatchNorm技术,以及它的优缺点。
简单描述一下Transformer中的前馈神经网络?使用了什么激活函数?相关优缺点?
Decoder阶段的多头自注意力和encoder的多头自注意力有什么区别?
Transformer的并行化提现在哪个地方?
Decoder端可以做并行化吗?
简单描述一下wordpiece model 和 byte pair encoding,有实际应用过吗?
Transformer训练的时候学习率是如何设定的?Dropout是如何设定的,位置在哪里?Dropout 在测试的需要有什么需要注意的吗?
bert的mask为何不学习transformer在attention处进行屏蔽score的技巧?
————————————————
版权声明:本文为CSDN博主「耗子来啦」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/hguo11/article/details/124260826

以上是关于PCA和LDA的主要内容,如果未能解决你的问题,请参考以下文章

lbp和pca用啥软件

PCA和LDA

mlab PCA 和 sklearn PCA 的区别

机器学习实战基础(二十三):sklearn中的降维算法PCA和SVD PCA与SVD 之 PCA中的SVD

机器学习实战基础(二十三):sklearn中的降维算法PCA和SVD PCA与SVD 之 PCA中的SVD

Pyspark 和 PCA:如何提取此 PCA 的特征向量?我如何计算他们解释的方差有多大?