Stanford机器学习---第十讲. 数据降维

Posted liugallup

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Stanford机器学习---第十讲. 数据降维相关的知识,希望对你有一定的参考价值。

本文原始地址见http://blog.csdn.net/abcjennifer/article/details/8002329,在此添加了一些自己的注释方便理解

本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。内容大多来自Standford公开课machine learning中Andrew老师的讲解和其他书籍的借鉴。(https://class.coursera.org/ml/class/index


PS: 盼望已久的十一长假就要到了~祝大家国庆快乐,玩的开心!(*^__^*) 


第十讲. 降维——Dimensionality Reduction


===============================

(一)、为什么要降维?

(二)、主成分分析Principal Component Analysis (PCA) 

(三)、PCA 算法流程

(四)、从压缩数据中恢复原数据

(五)、怎样决定降维个数/主成分个数

(六)、应用PCA进行降维的建议



本章主要讲述应用PCA算法进行数据降维的原理


=====================================

(一)、为什么要降维?

  • About data:
我们需要一组关于XXX的数据,定义就铺天盖地的来了,百万级个特征拿过来,我们怎么进行机器学习啊?!李航老师在他的博客《机器学习新动向:从人机交互中》中提到,学习精度越高,学习确信度越高,学习模型越复杂,所需要的样本也就越多。样本复杂度满足以下不等式

以上是关于Stanford机器学习---第十讲. 数据降维的主要内容,如果未能解决你的问题,请参考以下文章

Stanford机器学习笔记12-Dimensionality Reduction

机器学习中使用的神经网络第十讲笔记

Stanford机器学习笔记-10. 降维(Dimensionality Reduction)

Stanford机器学习---第九讲. 聚类

斯坦福Introduction to NLP:第十讲关系抽取

SIGAI机器学习第十集 线性判别分析