数据挖掘聚类之k-means(转载)

Posted Vae永Silence

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了数据挖掘聚类之k-means(转载)相关的知识,希望对你有一定的参考价值。

【数据挖掘】聚类之k-means

1.算法简述

 

分类是指分类器(classifier)根据已标注类别的训练集,通过训练可以对未知类别的样本进行分类。分类被称为监督学习(supervised learning)。如果训练集的样本没有标注类别,那么就需要用到聚类。聚类是把相似的样本聚成一类,这种相似性通常以距离来度量。聚类被称为无监督学习(unspervised learning)。

 

k-means是聚类算法中常用的一种,其中k的含义是指有k个cluster。由聚类的定义可知,一个样本应距离其所属cluster的质心是最近的(相较于其他k-1个cluster)。实际上,k-means的本质是最小化目标函数:

技术分享

x为样本点,c为cluster。为了表示cluster,最简单有效的是取所有样本点平均,即质心(cluster centroid);这便是取名means的来由。

 

k-means算法流程如下:

选取初始k个质心(通常随机选取)

循环重复直至收敛

{    对每个样本,计算出与k个质心距离最近的那个,将其归为距离最新质心所对应的cluster

    重新计算质心,当质心不再变化即为收敛

}

 

代码参考[1,2],结果可视化请参考[2]

import numpy as np  
import scipy.spatial.distance as ssd  
import matplotlib.pyplot as plt   
  
def read_file(fn):  
    raw_file=open(fn)  
    dataSet=[]  
    for raw_row in raw_file.readlines():  
        row=raw_row.strip().split(\t)  
        dataSet.append((float(row[0]),float(row[1])))  
  
    return np.array(dataSet)  
  
def firstCentroids(k,dataSet):  
    """create the first centroids"""  
  
    num_columns=dataSet.shape[1]  
    centroids=np.zeros((k,num_columns))  
    for j in range(num_columns):  
        minJ=min(dataSet[:,j])  
        rangeJ=max(dataSet[:,j])-minJ  
        for i in range(k):  
            centroids[i,j]=minJ+rangeJ*np.random.uniform(0,1)  
    return np.array(centroids)  
  
def kmeans(k,dataSet):  
    num_rows,num_columns=dataSet.shape  
    centroids=firstCentroids(k,dataSet)  
      
    #store the cluster that the samples belong to  
    clusterAssment=np.zeros((num_rows,2))  
    clusterChanged=True  
    while clusterChanged:  
        clusterChanged=False  
         
        #find the closet centroid  
        for i in range(num_rows):  
            minDis=np.inf;minIndex=-1  
            for j in range(k):  
                distance=ssd.euclidean(dataSet[i,:],centroids[j,:])  
                if distance<minDis:  
                    minDis=distance;minIndex=j  
  
            if(clusterAssment[i,0]!=minIndex): clusterChanged=True  
            clusterAssment[i,:]=minIndex,minDis**2  
          
        #update the centroid location  
        for cent in range(k):  
            ptsInCent=dataSet[np.nonzero(clusterAssment[:,0]==cent)[0]]  
            centroids[cent,:]=np.mean(ptsInCent,axis=0)  
  
    return centroids,clusterAssment

缺点:

  1. k-means是局部最优,因而对初始质心的选取敏感。换句话说,选取不同的初始质心,会导致不同的分类结果(当然包括差的了)。
  2. 选择能达到目标函数最优的k值是非常困难的。

2. Referrence

[1] Peter Harrington, machine learning in action.

[2] zouxy09, 机器学习算法与Python实践之(五)k均值聚类(k-means).

[3] the top ten algorithm in data mining, CRC Press.

以上是关于数据挖掘聚类之k-means(转载)的主要内容,如果未能解决你的问题,请参考以下文章

聚类之K均值聚类和EM算法

机器学习11—原型聚类之学习向量量化(LVQ)

为啥使用 k-means(来自 Scipy)聚类到两个片段的图像会显示两个以上不同的像素值?

转载聚类算法小结

68 R 聚类分析

K-means聚类的Python实现