K-means 代码(python)

Posted vodka、

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了K-means 代码(python)相关的知识,希望对你有一定的参考价值。

要求:

随机生成x,y均在[0,10]范围内的10个点,k=2,训练一个简单的k-means模型。

K均值算法步骤如下:

1.在训练样本点中随机初始化[0,10]范围内的k个样本点作为k个簇各自的中心;

2.遍历一遍所有样本点,将每一个样本点分配到最近的簇中心,得到clusterDict。clusterDict的键为centroidList的下标,键值为属于该类的所有样本点。

3.计算第一次聚类迭代得到的结果的代价函数,即每一个样本点到其簇中心的距离的平方和newVar。令oldVar = -1

4.开始迭代,直到代价函数收敛(newVar-oldVar<=0.00001):

对于计算每一类样本的均值,作为新的簇中心
遍历一遍所有样本点,将每一个样本点分配到最近的簇中心。

import numpy as np
import matplotlib.pyplot as plt
 
def getCentroids(clusterDict):
    # 得到k个质心
    centroidList = []
    for key in clusterDict.keys():
        centroid = np.mean(clusterDict[key], axis=0)  # 计算每列的均值,即找到质心
        centroidList.append(centroid)
    return np.array(centroidList).tolist()
 
def getVar(clusterDict,centroidList):
    # 计算簇集合间的均方误差
    # 将簇类中各个向量与质心的距离进行累加求和
    sum = 0.0
    for key in clusterDict.keys():
        vec1 = centroidList[key]
        distance = 0.0
        for item in clusterDict[key]:
            vec2 = item
            distance += calcuDistance(vec1, vec2)
        sum += distance
    return sum
 
def calcuDistance(vec1,vec2):
    return np.sqrt(np.sum(np.square(vec1-vec2)))  # L2距离
 
def MinDistance(dataSet,centroidList):
    clusterDict = {}
    for i in range(len(dataSet)):
        flag = 0
        min_dis = float("inf")
        for j in range(len(centroidList)):
            distance = calcuDistance(dataSet[i],centroidList[j])
            if min_dis>distance:
                flag = j
                min_dis = distance
        if flag not in clusterDict.keys():
            clusterDict[flag] = list()
        clusterDict[flag].append(dataSet[i])
    return clusterDict
 
def minDistance(dataSet, centroidList):
    # 对每个属于dataSet的item,计算item与centroidList中k个质心的欧式距离,找出距离最小的,
    # 并将item加入相应的簇类中
    clusterDict = dict()  # 用dict来保存簇类结果
    for item in dataSet:
        vec1 = np.array(item)  # 转换成array形式
        flag = 0  # 簇分类标记,记录与相应簇距离最近的那个簇
        minDis = float("inf")  # 初始化为最大值
        for i in range(len(centroidList)):
            vec2 = np.array(centroidList[i])
            distance = calcuDistance(vec1, vec2)  # 计算相应的欧式距离
            if distance < minDis:
                minDis = distance
                flag = i  # 循环结束时,flag保存的是与当前item距离最近的那个簇标记
 
        if flag not in clusterDict.keys():  # 簇标记不存在,进行初始化
            clusterDict[flag] = list()
        clusterDict[flag].append(item)  # 加入相应的类别中
 
    return clusterDict  # 返回新的聚类结果
def showCluster(centroidList, clusterDict):
    # 展示聚类结果
    colorMark = ['or', 'ob', 'og', 'ok', 'oy', 'ow']  # 不同簇类的标记 'or' --> 'o'代表圆,'r'代表red,'b':blue
    centroidMark = ['dr', 'db', 'dg', 'dk', 'dy', 'dw']  # 质心标记 同上'd'代表棱形
    for key in clusterDict.keys():
        plt.plot(centroidList[key][0], centroidList[key][1], centroidMark[key], markersize=10)  # 画质心点
        for item in clusterDict[key]:
            plt.plot(item[0], item[1], colorMark[key])  # 画簇类下的点
    plt.show()
if __name__ == '__main__':
    k = 2   #聚类种数
    dataSet = 10*np.random.random((10,2))
    centroidList = 10*np.random.random((k,2))
    clusterDict = MinDistance(dataSet,centroidList)
    newVar = getVar(clusterDict, centroidList)
 
    oldVar = -1  # 旧均方误差值初始化为-1
    # showCluster(centroidList, clusterDict)  # 展示聚类结果
    k = 2
    while abs(newVar - oldVar) >= 0.000001:  # 当连续两次聚类结果小于0.0001时,迭代结束
        centroidList = getCentroids(clusterDict)  # 获得新的质心
        clusterDict = MinDistance(dataSet, centroidList)  # 新的聚类结果
        oldVar = newVar
        newVar = getVar(clusterDict, centroidList)
        print('*****%d次迭代 *****' % k)
        print('簇类')
        for key in clusterDict.keys():
            print(key, ' --> ', clusterDict[key])
        print('k个均值向量: ', centroidList)
        print('平均均方误差: ', newVar)
        k += 1
        showCluster(centroidList,clusterDict)   # 展示聚类结果

以上是关于K-means 代码(python)的主要内容,如果未能解决你的问题,请参考以下文章

K-means聚类算法一文详解+Python代码实例

K-means 代码(python)

K-means 代码(python)

K-means 代码(python)

K-means 代码(python)

K-means聚类算法及python代码实现