k-means——平面上100个样本点的聚类分析(通俗易懂)

Posted 数据分析与统计学之美

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了k-means——平面上100个样本点的聚类分析(通俗易懂)相关的知识,希望对你有一定的参考价值。

1、k-means聚类的算法流程

  • 1.随机选取n个样本作为初始类中心;
  • 2.计算各样本与各类中心的距离;
  • 3.将各样本归于最近的类中心点;
  • 4.求各类的样本的均值,作为新的类中心;
  • 5.判定:若类中心不再发生变动或达到指定迭代次数,那么算法结束,否则回到第2步。

2、一个形象的例子:讲述k-means聚类原理

1)将下面这四个点,分为两类

2)聚类流程如下

3、平面上100个点的k-means聚类分析


代码如下:

import numpy as np
# 构造数据集
x = np.linspace(0,99,100)
y = np.linspace(100,199,100)

aa = 0      # aa变量是为了记录,迭代次数
k = 2       # 指定将数据分为几个类别
n = len(x)  # 数据集的个数 

# 1、随机选取两个点,作为初始的类中心;
center0 = np.array([x[0],y[0]])
center1 = np.array([x[1],y[1]])

dis = np.zeros([n,k+1])
while aa >= 0:
    # 2、求各样本到各类中心的距离;
    for i in range(n):
        dis[i,0] = np.sqrt((x[i]-center0[0])**2+(y[i]-center0[1])**2)
        dis[i,1] = np.sqrt((x[i]-center1[0])**2+(y[i]-center1[1])**2)
        # 3、归类:将样本归类为,距离其最近的类中的所属类;
        dis[i,2] = np.argmin(dis[i,:2])
    # 4、再次计算各类样本的均值,作为新的类中心;
    index0 = dis[:,2] == 0
    index1 = dis[:,2] == 1
    center0_new = np.array([x[index0].mean(),y[index0].mean()])
    center1_new = np.array([x[index1].mean(),y[index1].mean()])
    # 5、判断类中心,是否发生变化。如果发生变化,就回到第2步;否则,break退出循环;
    if all((center0 == center0_new) & (center1 == center1_new)):
        break
    center0 = center0_new
    center1 = center1_new
    aa += 1
print(len(dis[dis[:,2] == 0]),len(dis[dis[:,2] == 1]))
print(center0,center1,aa)

结果如下:

结果分析:
  从上面的结果中可以看到,最终的数据被分为的两类,每一类各有50个点。同时我们求出了最终的类中心点,一个是(24,5,124,5),另一个是(74.5,174.5),并且还求出了最后的迭代次数为7,也就是说:初始类中心一共迭代了7次后,就不再发生变化了。

以上是关于k-means——平面上100个样本点的聚类分析(通俗易懂)的主要内容,如果未能解决你的问题,请参考以下文章

数据分析系列 之python语言中的聚类分析

常用数据挖掘算法从入门到精通 第二章 K-means聚类算法

不均匀簇的聚类(k-means)

python k-means聚类

数据建模()-K-means聚类算法

DBSCAN算法