聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

Posted ljy28

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用相关的知识,希望对你有一定的参考价值。

1.用python实现K均值算法

K-means是一个反复迭代的过程,算法分为四个步骤:

  (x,k,y)

1) 选取数据空间中的K个对象作为初始中心,每个对象代表一个聚类中心;

  def initcenter(x, k): kc

2) 对于样本中的数据对象,根据它们与这些聚类中心的欧氏距离,按距离最近的准则将它们分到距离它们最近的聚类中心(最相似)所对应的类;

  def nearest(kc, x[i]): j

  def xclassify(x, y, kc):y[i]=j

3) 更新聚类中心:将每个类别中所有对象所对应的均值作为该类别的聚类中心,计算目标函数的值;

  def kcmean(x, y, kc, k):

4) 判断聚类中心和目标函数的值是否发生改变,若不变,则输出结果,若改变,则返回2)。

  while flag:

      y = xclassify(x, y, kc)

      kc, flag = kcmean(x, y, kc, k)

2. 鸢尾花花瓣长度数据做聚类并用散点图显示。

3. 用sklearn.cluster.KMeans,鸢尾花花瓣长度数据做聚类并用散点图显示.

4. 鸢尾花完整数据做聚类并用散点图显示.

#1.用python实现K均值算法
#K-means是一个反复迭代的过程,算法分为四个步骤:
import numpy as np
x = np.random.randint(1,50,[20,1])
y = np.zeros(20)
k = 3

#1) 选取数据空间中的K个对象作为初始中心,每个对象代表一个聚类中心;
def initcenter(x,k):
    return x[:k]

#2) 对于样本中的数据对象,根据它们与这些聚类中心的欧氏距离,按距离最近的准则将它们分到距离它们最近的聚类中心(最相似)所对应的类;
def nearest(kc,i):
    d = abs(kc -i)
    w = np.where(d == np.min(d))
    return w[0][0]

def xclassify(x, y, kc):
    for i in range(x.shape[0]):
        y[i] = nearest(kc, x[i])
        return y
kc = initcenter(x,k)
y = xclassify(x,y,kc)
print(kc,y)

#3) 更新聚类中心:将每个类别中所有对象所对应的均值作为该类别的聚类中心,计算目标函数的值;
def kcmean(x,y,kc,k):
    l = list(kc)
    flag = False
    for c in range(k):
        m = np.where(y ==0)
        n = np.mean(x[m])
        if l[c] != n:
            l[c] = n
            flag = True
            print(l,flag)
    return (np.array(l),flag)

#4) 判断聚类中心和目标函数的值是否发生改变,若不变,则输出结果,若改变,则返回2)

kc = initcenter(x,k)
flag = True
print(x,y,kc,flag)
while flag:
    y = xclassify(x,y,kc)
    kc,flag = kcmean(x,y,kc,k)
print(y,kc)

  技术分享图片

#2. 鸢尾花花瓣长度数据做聚类并用散点图显示
import numpy as np
from sklearn.datasets import load_iris

iris = load_iris()
x = iris.data[:, 1]
y = np.zeros(150)

def initcent(x, k):  # 初始聚类中心数组
    return x[0:k].reshape(k)

def nearest(kc, i):  # 数组中的值,与聚类中心最小距离所在类别的索引号
    d = (abs(kc - i))
    w = np.where(d == np.min(d))
    return w[0][0]

def kcmean(x, y, kc, k):  # 计算各聚类新均值
    l = list(kc)
    flag = False
    for c in range(k):
        m = np.where(y == c)
        n = np.mean(x[m])
        if l[c] != n:
            l[c] = n
            flag = True  # 聚类中心发生变化
    return (np.array(l), flag)

def xclassify(x, y, kc):
    for i in range(x.shape[0]):  # 对数组的每个值分类
        y[i] = nearest(kc, x[i])
    return y

k = 3
kc = initcent(x, k)
flag = True
print(x, y, kc, flag)
while flag:
    y = xclassify(x, y, kc)
    kc, flag = kcmean(x, y, kc, k)
print(y, kc, type(kc))

import matplotlib.pyplot as plt
plt.scatter(x,x,c=y,s=50,cmap=‘rainbow‘,marker=‘p‘,alpha=0.5)
plt.show()

  技术分享图片

#3.用sklearn.cluster.KMeans,鸢尾花完整数据做聚类并用散点图显示.
import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import load_iris
iris=load_iris()
print(iris)
X=iris.data
print(X)
from sklearn.cluster import KMeans
est = KMeans(n_clusters=3)
est.fit(X)
kc = est.cluster_centers_
y_kmeans = est.predict(X) #预测每个样本的聚类索引
print(y_kmeans,kc)
print(kc.shape,y_kmeans.shape)
plt.scatter(X[:,0],X[:,1],c=y_kmeans,s=50,cmap=‘rainbow‘)
plt.show()

  

技术分享图片

技术分享图片

技术分享图片

#4. 鸢尾花完整数据做聚类并用散点图显示.
from sklearn.cluster import KMeans
import numpy as np
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt
data = load_iris()
iris = data.data
petal_len = iris
print(petal_len)
k_means = KMeans(n_clusters=3) #三个聚类中心
result = k_means.fit(petal_len) #Kmeans自动分类
kc = result.cluster_centers_ #自动分类后的聚类中心
y_means = k_means.predict(petal_len) #预测Y值
plt.scatter(petal_len[:,0],petal_len[:,2],c=y_means, marker=‘p‘,cmap=‘rainbow‘)
plt.show()

  技术分享图片

 

以上是关于聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用的主要内容,如果未能解决你的问题,请参考以下文章

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法