K-Means:将集群分配给新的数据点

Posted

技术标签:

【中文标题】K-Means:将集群分配给新的数据点【英文标题】:K-Means: assign clusters to new data points 【发布时间】:2018-09-26 21:36:12 【问题描述】:

我已经在 python 中实现了一个 k-means 聚类算法,现在我想用我的算法得到的聚类来标记一个新数据。我的方法是遍历每个数据点和每个质心以找到最小距离和与之关联的质心。但我想知道是否有更简单或更短的方法来做到这一点。

def assign_cluster(clusterDict, data):

    clusterList = []
    label = []
    cen = list(clusterDict.values())

    for i in range(len(data)):
        for j in range(len(cen)):
            # if cen[j] has the minimum distance with data[i]
            # then clusterList[i] = cen[j]

其中clusterDict 是一个字典,其中键作为标签,[0,1,2,....] 和值作为质心坐标。

有人可以帮我实现这个吗?

【问题讨论】:

【参考方案1】:

这是 numba 的一个很好的用例,因为它可以让您将其表示为一个简单的双循环,而不会造成很大的性能损失,这反过来又可以让您避免使用 np.tile 复制数据时产生过多的额外内存第三个维度只是以矢量化的方式进行。

从另一个答案中借用标准矢量化 numpy 实现,我有这两个实现:

import numba
import numpy as np


def kmeans_assignment(centroids, points):
    num_centroids, dim = centroids.shape
    num_points, _ = points.shape

    # Tile and reshape both arrays into `[num_points, num_centroids, dim]`.                                                                      
    centroids = np.tile(centroids, [num_points, 1]).reshape([num_points, num_centroids, dim])
    points = np.tile(points, [1, num_centroids]).reshape([num_points, num_centroids, dim])

    # Compute all distances (for all points and all centroids) at once and                                                                       
    # select the min centroid for each point.                                                                                                    
    distances = np.sum(np.square(centroids - points), axis=2)
    return np.argmin(distances, axis=1)


@numba.jit
def kmeans_assignment2(centroids, points):
    P, C = points.shape[0], centroids.shape[0]
    distances = np.zeros((P, C), dtype=np.float32)
    for p in range(P):
        for c in range(C):
            distances[p, c] = np.sum(np.square(centroids[c] - points[p]))
    return np.argmin(distances, axis=1)

然后对于一些样本数据,我做了几个时序实验:

In [12]: points = np.random.rand(10000, 50)

In [13]: centroids = np.random.rand(30, 50)

In [14]: %timeit kmeans_assignment(centroids, points)
196 ms ± 6.78 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

In [15]: %timeit kmeans_assignment2(centroids, points)
127 ms ± 12.1 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)

我不会说 numba 版本肯定比 np.tile 版本快,但显然它非常接近,同时不会产生 np.tile 的额外内存成本。

事实上,我在笔记本电脑上注意到,当我将形状变大并使用 (10000, 1000) 来表示 points 的形状时,使用 (200, 1000) 来表示 centroids 的形状,然后是 np.tile生成了一个MemoryError,同时numba函数在5秒内运行,没有内存错误。

另外,我实际上注意到在第一个版本(withnp.tile)上使用numba.jit 时速度变慢了,这可能是由于在 jitted 函数内部创建了额外的数组以及没有太多 numba 可以优化的事实当您已经在调用所有矢量化函数时。

当我尝试使用广播来缩短代码时,我也没有注意到第二个版本有任何显着改进。例如。将双循环缩短为

for p in range(P):
    distances[p, :] = np.sum(np.square(centroids - points[p, :]), axis=1)

并没有真正帮助任何事情(并且在整个centroids 中重复广播points[p, :] 时会占用更多内存)。

这是 numba 的真正好处之一。您真的可以以一种非常直接、基于循环的方式编写算法,该方式符合算法的标准描述,并允许更好地控制语法如何分解为内存消耗或广播......所有这些都不会放弃运行时性能。

【讨论】:

您的 Numba 功能的时间安排似乎很奇怪。我为 kmeans_assignment 获得 170 毫秒,为您提供的函数获得 51.2 毫秒,对于在外循环上使用 prange 的并行化版本获得 4.36 毫秒。 (四核 i7)您使用的是哪个 Numba 版本?你在基准测试运行之前编译过函数吗? @max9111 numba 版本是 0.35.0,是的,我总是确保通过使用相同类型的不同参数调用编译版本(以生成编译版本),在时间声明。我一直看到我为我的机器列出的速度,但您的结果表明,通过额外的优化它可以更快。真正唯一的一点是应该避免使用np.tile,因为它有显着的额外内存开销。 我使用了 Numba 0.38 RC1。 SIMD矢量化和排序速度可能会有非常显着的变化。现在可以对诸如 sqrt、pow、sin 之类的内在函数进行矢量化,从而显着提高速度。 numba.pydata.org/numba-doc/dev/user/performance-tips.html【参考方案2】:

执行分配阶段的一种有效方法是进行矢量化计算。这种方法假设您从两个二维数组开始:点和质心,列数(空间维数)相同,但行数可能不同。通过使用平铺(np.tile),我们可以批量计算距离矩阵,然后为每个点选择最近的聚类。

代码如下:

def kmeans_assignment(centroids, points):
  num_centroids, dim = centroids.shape
  num_points, _ = points.shape

  # Tile and reshape both arrays into `[num_points, num_centroids, dim]`.
  centroids = np.tile(centroids, [num_points, 1]).reshape([num_points, num_centroids, dim])
  points = np.tile(points, [1, num_centroids]).reshape([num_points, num_centroids, dim])

  # Compute all distances (for all points and all centroids) at once and 
  # select the min centroid for each point.
  distances = np.sum(np.square(centroids - points), axis=2)
  return np.argmin(distances, axis=1)

有关完整的可运行示例,请参阅 this GitHub gist。

【讨论】:

以上是关于K-Means:将集群分配给新的数据点的主要内容,如果未能解决你的问题,请参考以下文章

机器学习应用:颜色量化实现示例

使用经过训练的 K-Means 模型为未见数据预测正确的集群

在 k-means 聚类中最小化损失函数意味着啥?

K-means聚类算法java实现

K-means整理

scikit k-means:查找属于特定质心生成集群的数据点