吴恩达《机器学习》课程总结(13)_聚类

Posted henuliulei

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了吴恩达《机器学习》课程总结(13)_聚类相关的知识,希望对你有一定的参考价值。

13.1无监督学习:简介

将没有标签的样本分成不同的集合(簇),这种算法叫做聚类。常用的领域有市场分割、社交网络分析、计算机集群管理、了解星系等。

13.2K-均值算法

(1)K-均值是最普及的聚类算法,是一种迭代算法,假设需要将数据聚类成n个组,这时候首先随机选择K个点,称为聚类中心。

将每个样本归属到最近的聚类中心,然后重新计算每个类的中心变成新的聚类中心,重复以上步骤,直到聚类中心不变。

技术图片

技术图片

伪代码如下:

技术图片

13.3优化目标

k-均值的最小化问题,就是每个样本点到对应聚类中心的距离之和:

技术图片

与其他算法不同的是,k-均值每一次迭代都会是代价函数变小。

13.4随机初始化

(1)K应该小于样本数m;

(2)从样本中随机选取K个实例作为初始聚类中心。

K-均值可能会出现局部最小的情况,如下所示:

技术图片

解决方案:多次运行该算法,最后在比较K-均值代价函数最小的结果,这种方法适用于K取较小的时候(2-10),K太大没有明显效果。

13.5选择聚类数

绘制聚类数与代价函数的图,然后选取出现斜率突然变小的地方的值(“肘部法则”)。

 技术图片

技术图片

 

以上是关于吴恩达《机器学习》课程总结(13)_聚类的主要内容,如果未能解决你的问题,请参考以下文章

吴恩达《机器学习》课程总结(19)_总结

吴恩达《机器学习》课程总结(19)总结

吴恩达《机器学习》课程总结_正则化

吴恩达《机器学习》课程总结_logistic回归

机器学习- 吴恩达Andrew Ng Week8 知识总结 Clustering

吴恩达《机器学习》课程总结_多变量线性回归