使用 sklearn 库中的 KMeans 实现彩色图像聚类分割

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用 sklearn 库中的 KMeans 实现彩色图像聚类分割相关的知识,希望对你有一定的参考价值。

参考技术A

sklearn 库是最为常用且经典的机器学习库,里面封装了许多机器学习算法,此篇文章使用此库中的 KMeans 算法,从而实现图像的聚类分割。

本文不讲理论,只谈应用。

除了 sklearn 库之外,还需要一些图像处理的库,我引入了如下几个库:

我使用了 pylab 库来读入图片:

此时读入的 img 是一个三维 numpy 数组,其形状为 (height, width, 3) ,其中3是指通道数,即 RGB 三个通道。

但是, KMeans 传入的参数必须是二维数组,故,还需要将其打散为二维:

在此构建时,只需要使用最简单的方法即可:

参数有很多,我在构建的时候除了 n_clusters 都使用的默认值:

然后,使用 fit() 进行训练:

聚类之后,有很多参数,比较重要的,以及此处需要用到的主要有俩:

聚类完成之后,需要将每个像素点重新填色,将同一类的像素点均填为此类聚类中心的颜色。

在此之前,首先需要得到图片的高度和宽度:

首先用 image.new() 重新创建一个图片,其语法如下:

然后需要用 putpixel() 方法来填充像素,但是在此之前,还需要处理几个小细节:

RGB图中,每个通道都是 0-255 之间的整数,但是, kmeans.cluster_centers_ 中元素类型却是 float64 ,故在填充之前,还需要小小处理一番,将元素变为 int32 类型的。

直接转变类型不太合适,因为 kmeans.cluster_centers_ 毕竟是类似于一个属性值的东西,而且这个名字太长,换一个简短的也是好的。故重新复制一份再使用 astype 更改数据类型即可。

上面便提到, kmeans.labels_ 是一个一维数组,但是图片是二维的,所以将其恢复过来即可:

然后便可以 填充像素 了:

这里需要注意 putpixel() 方法,其的两个参数:

最后保存图片即可:

我使用了王者荣耀大乔的图片来做测试:

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

1.用python实现K均值算法

K-means是一个反复迭代的过程,算法分为四个步骤:

  (x,k,y)

1) 选取数据空间中的K个对象作为初始中心,每个对象代表一个聚类中心;

  def initcenter(x, k): kc

2) 对于样本中的数据对象,根据它们与这些聚类中心的欧氏距离,按距离最近的准则将它们分到距离它们最近的聚类中心(最相似)所对应的类;

  def nearest(kc, x[i]): j

  def xclassify(x, y, kc):y[i]=j

3) 更新聚类中心:将每个类别中所有对象所对应的均值作为该类别的聚类中心,计算目标函数的值;

  def kcmean(x, y, kc, k):

4) 判断聚类中心和目标函数的值是否发生改变,若不变,则输出结果,若改变,则返回2)。

  while flag:

      y = xclassify(x, y, kc)

      kc, flag = kcmean(x, y, kc, k)

2. 鸢尾花花瓣长度数据做聚类并用散点图显示。

3. 用sklearn.cluster.KMeans,鸢尾花花瓣长度数据做聚类并用散点图显示.

4. 鸢尾花完整数据做聚类并用散点图显示.

#1.用python实现K均值算法
#K-means是一个反复迭代的过程,算法分为四个步骤:
import numpy as np
x = np.random.randint(1,50,[20,1])
y = np.zeros(20)
k = 3

#1) 选取数据空间中的K个对象作为初始中心,每个对象代表一个聚类中心;
def initcenter(x,k):
    return x[:k]

#2) 对于样本中的数据对象,根据它们与这些聚类中心的欧氏距离,按距离最近的准则将它们分到距离它们最近的聚类中心(最相似)所对应的类;
def nearest(kc,i):
    d = abs(kc -i)
    w = np.where(d == np.min(d))
    return w[0][0]

def xclassify(x, y, kc):
    for i in range(x.shape[0]):
        y[i] = nearest(kc, x[i])
        return y
kc = initcenter(x,k)
y = xclassify(x,y,kc)
print(kc,y)

#3) 更新聚类中心:将每个类别中所有对象所对应的均值作为该类别的聚类中心,计算目标函数的值;
def kcmean(x,y,kc,k):
    l = list(kc)
    flag = False
    for c in range(k):
        m = np.where(y ==0)
        n = np.mean(x[m])
        if l[c] != n:
            l[c] = n
            flag = True
            print(l,flag)
    return (np.array(l),flag)

#4) 判断聚类中心和目标函数的值是否发生改变,若不变,则输出结果,若改变,则返回2)

kc = initcenter(x,k)
flag = True
print(x,y,kc,flag)
while flag:
    y = xclassify(x,y,kc)
    kc,flag = kcmean(x,y,kc,k)
print(y,kc)

  技术分享图片

#2. 鸢尾花花瓣长度数据做聚类并用散点图显示
import numpy as np
from sklearn.datasets import load_iris

iris = load_iris()
x = iris.data[:, 1]
y = np.zeros(150)

def initcent(x, k):  # 初始聚类中心数组
    return x[0:k].reshape(k)

def nearest(kc, i):  # 数组中的值,与聚类中心最小距离所在类别的索引号
    d = (abs(kc - i))
    w = np.where(d == np.min(d))
    return w[0][0]

def kcmean(x, y, kc, k):  # 计算各聚类新均值
    l = list(kc)
    flag = False
    for c in range(k):
        m = np.where(y == c)
        n = np.mean(x[m])
        if l[c] != n:
            l[c] = n
            flag = True  # 聚类中心发生变化
    return (np.array(l), flag)

def xclassify(x, y, kc):
    for i in range(x.shape[0]):  # 对数组的每个值分类
        y[i] = nearest(kc, x[i])
    return y

k = 3
kc = initcent(x, k)
flag = True
print(x, y, kc, flag)
while flag:
    y = xclassify(x, y, kc)
    kc, flag = kcmean(x, y, kc, k)
print(y, kc, type(kc))

import matplotlib.pyplot as plt
plt.scatter(x,x,c=y,s=50,cmap=‘rainbow‘,marker=‘p‘,alpha=0.5)
plt.show()

  技术分享图片

#3.用sklearn.cluster.KMeans,鸢尾花完整数据做聚类并用散点图显示.
import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import load_iris
iris=load_iris()
print(iris)
X=iris.data
print(X)
from sklearn.cluster import KMeans
est = KMeans(n_clusters=3)
est.fit(X)
kc = est.cluster_centers_
y_kmeans = est.predict(X) #预测每个样本的聚类索引
print(y_kmeans,kc)
print(kc.shape,y_kmeans.shape)
plt.scatter(X[:,0],X[:,1],c=y_kmeans,s=50,cmap=‘rainbow‘)
plt.show()

  

技术分享图片

技术分享图片

技术分享图片

#4. 鸢尾花完整数据做聚类并用散点图显示.
from sklearn.cluster import KMeans
import numpy as np
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt
data = load_iris()
iris = data.data
petal_len = iris
print(petal_len)
k_means = KMeans(n_clusters=3) #三个聚类中心
result = k_means.fit(petal_len) #Kmeans自动分类
kc = result.cluster_centers_ #自动分类后的聚类中心
y_means = k_means.predict(petal_len) #预测Y值
plt.scatter(petal_len[:,0],petal_len[:,2],c=y_means, marker=‘p‘,cmap=‘rainbow‘)
plt.show()

  技术分享图片

 

以上是关于使用 sklearn 库中的 KMeans 实现彩色图像聚类分割的主要内容,如果未能解决你的问题,请参考以下文章

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

聚类--K均值算法:自主实现与sklearn.cluster.KMeans调用

如何从集群实现 sklearn -AgglomerativeClustering?