K-means 与KNN 聚类算法
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了K-means 与KNN 聚类算法相关的知识,希望对你有一定的参考价值。
参考技术A K-means 算法属于聚类算法的一种。聚类算法就是把相似的对象通过静态分类方法分成不同的组别或者更多的子集(subset),这样让在同一个子集中的成员对象都有相似的一些属性。聚类算法的任务是将数据集划分为多个集群。在相同集群中的数据彼此会比不同集群的数据相似。通常来说,聚类算法的目标就是通过相似特征将数据分组并分配进不同的集群中。K-means 聚类算法是一种非监督学习算法,被用于非标签数据(data without defined categories or groups)。该算法使用迭代细化来产生最终结果。算法输入的是集群的数量 K 和数据集。数据集是每个数据点的一组功能。 算法从 Κ 质心的初始估计开始,其可以随机生成或从数据集中随机选择 。然后算法在下面两个步骤之间迭代:
每个质心定义一个集群。在此步骤中,基于平方欧氏距离将每个数据点分配到其最近的质心。更正式一点, ci 属于质心集合 C ,然后每个数据点 x 基于下面的公式被分配到一个集群中。
在此步骤中,重新计算质心。这是通过获取分配给该质心集群的所有数据点的平均值来完成的。公式如下:
K-means 算法在步骤 1 和步骤 2 之间迭代,直到满足停止条件(即,没有数据点改变集群,距离的总和最小化,或者达到一些最大迭代次数)。
上述算法找到特定预选 K 值和数据集标签。为了找到数据中的集群数,用户需要针对一系列 K 值运行 K-means 聚类算法并比较结果。通常,没有用于确定 K 的精确值的方法,但是可以使用以下技术获得准确的估计。
Elbow point 拐点方法
通常用于比较不同 K 值的结果的度量之一是数据点与其聚类质心之间的平均距离。由于增加集群的数量将总是减少到数据点的距离,因此当 K 与数据点的数量相同时,增加 K 将总是减小该度量,达到零的极值。因此,该指标不能用作唯一目标。相反,绘制了作为 K 到质心的平均距离的函数,并且可以使用减小率急剧变化的“拐点”来粗略地确定 K 。
DBI(Davies-Bouldin Index)
DBI 是一种评估度量的聚类算法的指标,通常用于评估 K-means 算法中 k 的取值。简单的理解就是:DBI 是聚类内的距离与聚类外的距离的比值。所以,DBI 的数值越小,表示分散程度越低,聚类效果越好。
还存在许多用于验证 K 的其他技术,包括交叉验证,信息标准,信息理论跳跃方法,轮廓方法和 G 均值算法等等。
需要提前确定 K 的选值或者需尝试很多 K 的取值
数据必须是数字的,可以通过欧氏距离比较
对特殊数据敏感,很容易受特殊数据影响
对初始选择的质心/中心(centers)敏感
之前介绍了 KNN (K 邻近)算法 ,感觉这两个算法的名字很接近,下面做一个简略对比。
K-means :
聚类算法
用于非监督学习
使用无标签数据
需要训练过程
K-NN :
分类算法
用于监督学习
使用标签数据
没有明显的训练过程
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。Cover和Hart在1968年提出了最初的邻近算法。KNN是一种分类(classification)算法,它输入基于实例的学习(instance-based learning),属于懒惰学习(lazy learning)即KNN没有显式的学习过程,也就是说没有训练阶段,数据集事先已有了分类和特征值,待收到新样本后直接进行处理。与急切学习(eager learning)相对应。
KNN是通过测量不同特征值之间的距离进行分类。
思路是:如果一个样本在特征空间中的k个最邻近的样本中的大多数属于某一个类别,则该样本也划分为这个类别。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
提到KNN,网上最常见的就是下面这个图,可以帮助大家理解。
我们要确定绿点属于哪个颜色(红色或者蓝色),要做的就是选出距离目标点距离最近的k个点,看这k个点的大多数颜色是什么颜色。当k取3的时候,我们可以看出距离最近的三个,分别是红色、红色、蓝色,因此得到目标点为红色。
算法的描述:
1)计算测试数据与各个训练数据之间的距离;
2)按照距离的递增关系进行排序;
3)选取距离最小的K个点;
4)确定前K个点所在类别的出现频率;
5)返回前K个点中出现频率最高的类别作为测试数据的预测分类
二、关于 K 的取值
K:临近数,即在预测目标点时取几个临近的点来预测。
K值得选取非常重要,因为:
如果当K的取值过小时,一旦有噪声得成分存在们将会对预测产生比较大影响,例如取K值为1时,一旦最近的一个点是噪声,那么就会出现偏差,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
如果K的值取的过大时,就相当于用较大邻域中的训练实例进行预测,学习的近似误差会增大。这时与输入目标点较远实例也会对预测起作用,使预测发生错误。K值的增大就意味着整体的模型变得简单;
如果K==N的时候,那么就是取全部的实例,即为取实例中某分类下最多的点,就对预测没有什么实际的意义了;
K的取值尽量要取奇数,以保证在计算结果最后会产生一个较多的类别,如果取偶数可能会产生相等的情况,不利于预测。
K的取法:
常用的方法是从k=1开始,使用检验集估计分类器的误差率。重复该过程,每次K增值1,允许增加一个近邻。选取产生最小误差率的K。
一般k的取值不超过20,上限是n的开方,随着数据集的增大,K的值也要增大。
三、关于距离的选取
距离就是平面上两个点的直线距离
关于距离的度量方法,常用的有:欧几里得距离、余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)或其他。
Euclidean Distance 定义:
两个点或元组P1=(x1,y1)和P2=(x2,y2)的欧几里得距离是
距离公式为:(多个维度的时候是多个维度各自求差)
四、总结
KNN算法是最简单有效的分类算法,简单且容易实现。当训练数据集很大时,需要大量的存储空间,而且需要计算待测样本和训练数据集中所有样本的距离,所以非常耗时
KNN对于随机分布的数据集分类效果较差,对于类内间距小,类间间距大的数据集分类效果好,而且对于边界不规则的数据效果好于线性分类器。
KNN对于样本不均衡的数据效果不好,需要进行改进。改进的方法时对k个近邻数据赋予权重,比如距离测试样本越近,权重越大。
KNN很耗时,时间复杂度为O(n),一般适用于样本数较少的数据集,当数据量大时,可以将数据以树的形式呈现,能提高速度,常用的有kd-tree和ball-tree。
☀️机器学习入门☀️ 图解K-Means聚类算法 | 附加小练习
物以类
聚
经典的无监督学习算法 ——K-Means
聚类算法
1. K-Means 定义
K-means
聚类算法首先是随机选取K
个对象作为初始的聚类中心,然后计算每个样本与各个聚类中心之间
的距离,把每个样本分配给距离它最近的聚类中心。
聚类中心以及分配给它们的对象就代表一个聚类。每分配一次样本,聚类的聚类中心
会根据聚类中现有的对象被重新计算。这个过程将不断重复直到满足某个终止条件。
终止条件可以是没有(或最小数目)样本被重新分配给不同的聚类,没有(或最小数目)聚类中心再发生变化,误差平方和局部最小。
2. K-Means 步骤
理论:
1 . 随机生成K
个聚类中心。
2 .计算每个样本与每一个聚类中心的距离(欧式距离)
,离哪个聚类中心
近,就划分到哪个聚类中心
所属的集合当中。
3 .重新计算每个集合的聚类中心。
4 .重复2,3步直到收敛。
5 .返回所有的聚类标签。
图解K-Means:
数据集采用的是
make_blobs
,
① 设置K=2
,第一次随机划分了两个聚类
,可以看出是非常不平衡的!还没有收敛
~
② 计算每个样本与这两个聚类中心的距离(欧式距离)
,离哪个聚类中心
近,就划分到哪个聚类中心
所属的集合当中。
- 如果这个样本点到两个聚类中的距离都是
相等
的话,就会随机分配
到其中一类。 - 那么当这次聚类结束后,两个聚类会重新进行
聚类中心点的计算
,聚类中心就会改变。 - 那么下一次进行
样本点
和聚类中心点
聚类计算的时候,这个样本点该划分到哪一类就会是哪一类。 - 也就是说这个随机是不影响
最终
的聚类
结果的。
可以换个
参考系
想想,这两个聚类中心点不断在找自己的样本,就算中间过程中找错了,也不会影响最终的结果,他该有哪些样本点还是哪些样本点
③ 当划分完这一次所有样本点到各个聚类中心之后(即哪个样本点离哪个聚类中心近,就分到哪个聚类中心的集合),重新计算聚类中心的位置,即是黑色点的位置。
下图,红色点是
没有计算
的,就是上一次的聚类中心点
,所以紫色的样本点都是距离右边的红点近的
,黄色的样本点都是距离左边的红点
近的,黑色点是重新计算
后的
然后就通过这个重新计算后的黑色点,继续计算各个样本点到这个黑色点的距离,离左边的聚类中心近的就是黄色区域,离右边聚类中心点近的就是属于右边的一类。
可以看一下这一次聚类的过程: 一共迭代了15次才收敛
3. K-Means 和 KNN 对比
名称 | K-Means | KNN |
---|---|---|
训练类型 | 无监督学习 | 监督学习 |
计算样本范围 | 全局计算 | 邻居之间的局部计算 |
K的含义 | K个聚类 | K个近邻 |
最终结果 | 只能知道是哪一类,不知道这个类的标签 | 明确知道了最后分类之后的标签类别 |
优点 | 原理比较简单,实现也是很容易,收敛速度快 | 简单好用,容易理解,精度高,理论成熟,既可以用来做分类也可以用来做回归 |
缺点 | 对K的取值、样本分布非常敏感 | 样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少) |
下面两张图来自B站Up五分钟机器学习
4. 小练习
4.1 第一题
Sklearn中的make_circles方法生成数据,用K-Means聚类并可视化。
"""
Sklearn中的make_circles方法生成数据,用K-Means聚类并可视化。
"""
from sklearn.cluster import KMeans
from sklearn.datasets import make_circles
import matplotlib.pyplot as plt
from ex1.clustering_performance import clusteringMetrics # 导入的老师写的库
fig = plt.figure(1, figsize=(10, 5))
X1, y1 = make_circles(n_samples=400, factor=0.5, noise=0.1)
plt.subplot(121)
plt.title('original')
plt.scatter(X1[:, 0], X1[:, 1], c=y1)
plt.subplot(122)
plt.title('K-means')
kms = KMeans(n_clusters=2, max_iter=400) # n_cluster聚类中心数 max_iter迭代次数
y1_sample = kms.fit_predict(X1, y1) # 计算并预测样本类别
centroids = kms.cluster_centers_
plt.scatter(X1[:, 0], X1[:, 1], c=y1_sample)
plt.scatter(centroids[:, 0], centroids[:, 1], s=30, marker='*', c='b')
print(clusteringMetrics(y1, y1_sample))
plt.show()
4.2 第二题
Sklearn中的make_moons方法生成数据,用K-Means聚类并可视化。
"""
Sklearn中的make_moons方法生成数据,用K-Means聚类并可视化。
"""
import numpy as np
import matplotlib.pyplot as plt
import sklearn.datasets as datasets
def create_data():
X, y = datasets.make_moons(n_samples=400, noise=0.1)
return X, y
def init_centers(data, k):
m, n = data.shape
# m 样本个数,n特征个数
center_ids = np.random.choice(m, k)
centers = data[center_ids]
return centers
def cal_dist(ptA, ptB):
return np.linalg.norm(ptA - ptB)
def kmeans_process(data, k):
centers = init_centers(data, k)
m, n = data.shape
keep_changing = True
pred_y = np.zeros((m,))
iteration = 0
while keep_changing:
keep_changing = False
# 计算剩余样本所属类别
for i in range(m):
min_distance = np.inf
for center in range(k):
distance = cal_dist(data[i, :], centers[center, :])
if distance < min_distance: # 判断离哪个更近
min_distance = distance
idx = center # 类别换下
if pred_y[i] != idx: # 判断是否发生了改变
keep_changing = True
pred_y[i] = idx
# 更新类别中心点坐标
for center in range(k):
cluster_data = data[pred_y == center]
centers[center, :] = np.mean(cluster_data, axis=0) # 求相同类别数据点的质心点
print(centers)
plt.clf()
plt.title(f'iteration: {iteration}')
plt.scatter(X[:, 0], X[:, 1], s=30, c=pred_y)
plt.scatter(centers[:, 0], centers[:, 1], s=100, c='k')
plt.pause(1)
iteration += 1
return centers, pred_y
if __name__ == '__main__':
X, y = create_data()
plt.ion()
centers, pred_y = kmeans_process(data=X, k=2)
plt.ioff()
plt.show()
4.3 第三题
给定的图像,对其像素进行聚类并可视化
from scipy.cluster.vq import *
from pylab import *
from PIL import Image
def clusterpixels(infile, k, steps):
im = array(Image.open(infile))
dx = im.shape[0] / steps
dy = im.shape[1] / steps
features = []
for x in range(steps): # RGB三色通道
for y in range(steps):
R = mean(im[int(x * dx):int((x + 1) * dx), int(y * dy):int((y + 1) * dy), 0])
G = mean(im[int(x * dx):int((x + 1) * dx), int(y * dy):int((y + 1) * dy), 1])
B = mean(im[int(x * dx):int((x + 1) * dx), int(y * dy):int((y + 1) * dy), 2])
features.append([R, G, B])
features = array(features, 'f') # make into array
# 聚类, k是聚类数目
centroids, variance = kmeans(features, k)
code, distance = vq(features, centroids)
codeim = code.reshape(steps, steps)
codeim = np.array(Image.fromarray(codeim).resize((im.shape[1], im.shape[0])))
return codeim
# k = 5
infile_Stones = 'stones.jpg'
im_Stones = array(Image.open(infile_Stones))
steps = (50, 100) # image is divided in steps*steps region
# 显示原图
figure()
subplot(231)
title('original')
axis('off')
imshow(im_Stones)
for k in range(2, 7):
codeim = clusterpixels(infile_Stones, k, steps[-1])
subplot(2, 3, k)
title('K=' + str(k))
axis('off')
imshow(codeim)
show()
最后
小生凡一,期待你的关注。
以上是关于K-means 与KNN 聚类算法的主要内容,如果未能解决你的问题,请参考以下文章
☀️机器学习入门☀️ 图解K-Means聚类算法 | 附加小练习