andrew ng machine learning week8 非监督学习

Posted twomeng

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了andrew ng machine learning week8 非监督学习相关的知识,希望对你有一定的参考价值。

   

 聚类——无监督学习的一种算法

K-means算法 最为广泛使用的聚类算法

选择两个聚类中心

簇分配:根据每个样本更接近哪个聚类中心进行样本的分配

簇中心移动:计算出所有的红点类的均值点,移动原始聚类中心到这个点,蓝点类同理

进行不断地迭代直到收敛 

输入:K个簇类和训练集样本数据

注意:不需要X0项,为n维向量

技术分享图片

 算法的描述:

如果最终有个簇中心没有任何点分配给他那么直接移除就可以

技术分享图片

K-means常常适用于右侧这种看不出来结构的混乱的数据的聚类的,所以并不是都是左图如此理想的环境

技术分享图片

最优化的目标函数


参数们:

每个训练样本被归类的簇号

簇中心编号

x所属的族的族编号

优化目标:每个样本到所属的簇中心的距离的累加和越小越好

技术分享图片

随机初始化

K 应该 小于M

随机选择K个训练样本作为初始的簇中心

技术分享图片

 

技术分享图片

如何选择K的数目

看聚类产生的结果来手动选择聚类的数目

肘部法则:绘制随着聚类数目增多的cost曲线,选择位于手肘的位置的类数

技术分享图片

衣服尺码的选择

技术分享图片

第二种非监督算法 维数约减


一个物体用厘米英寸两种变量表示,其实冗余了,可以降维一次

技术分享图片

技术分享图片

可视化数据

从高纬度降到2/3维从而可以实现可视化

技术分享图片

技术分享图片

技术分享图片

主成分分析法降维

找到一条线把所有的点投射到这条直线上,每个点到投影点的距离非常小,也就是找一个低维度的面,使这些小蓝色断线投影误差(的和最小)

首先一定要进行特征维度的均值归一化

技术分享图片

找到一个方向进行投影

在3D上则是找到两个方向确定一个平面

技术分享图片

主成分分析的算法实现:

一组训练数据首先进行特征缩放或者均值归一

技术分享图片

计算协方差矩阵的特征向量,svd 奇异值分解 或者 eig命令都可以求特征向量

我们需要的是U矩阵,即为我们需要的u1,u2 and so on ,只需要选取前K列值就可以

技术分享图片

技术分享图片

总结

技术分享图片

PCA作为数据压缩的算法,如何从压缩的数据还原到压缩之前的数据呢?

技术分享图片

如何选择K最为合适呢?

 

技术分享图片

使用K=1 进行PCA的计算,看是否差异性能够被保留,否则就增大K的值直到选择一个能保留差异性的K值

S是一个N*N的矩阵,对角线以外的元素都是0 

左边这个计算公式可以用右边的S矩阵的公式来更简单地计算出来

也就是1- K个对角线元素/N个对角线元素的和

技术分享图片

总结一下计算的方法:

技术分享图片

PCA如何在实际操作中提高算法的速度

10000维度的特征向量如何降维

首先得到一组没有y的训练样本

然后得到一组降了维度的z和新的训练集

技术分享图片

PCA的应用

压缩

加速学习算法

技术分享图片

不合适的应用:避免过拟合

技术分享图片

当你发现你的运行空间不够或者效果不够好时才需要考虑用PCA来处理一下

技术分享图片

 

以上是关于andrew ng machine learning week8 非监督学习的主要内容,如果未能解决你的问题,请参考以下文章

Stanford CS229 Machine Learning by Andrew Ng

Andrew Ng Machine Learning 专题Linear Regression

Machine Learning|Andrew Ng|Coursera 吴恩达机器学习笔记

[Machine Learning (Andrew NG courses)]V. Octave Tutorial (Week 2)

[Checked (vid only)] Cousera - Machine Learning by Andrew Ng

机器学习 Machine Learning- 吴恩达Andrew Ng 第11~15课总结