DBSCAN聚类算法原理总结

Posted 机器学习算法那些事

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了DBSCAN聚类算法原理总结相关的知识,希望对你有一定的参考价值。

DBSCAN是基于密度空间的聚类算法,在机器学习和数据挖掘领域有广泛的应用,其聚类原理通俗点讲是每个簇类的密度高于该簇类周围的密度,噪声的密度小于任一簇类的密度。如下图簇类ABC的密度大于周围的密度,噪声的密度低于任一簇类的密度,因此DBSCAN算法也能用于异常点检测。本文对DBSCAN算法进行了详细总结 。

目录


1. DBSCAN算法的样本点组成

2. DBSCAN算法原理

3. DBSCAN算法的参数估计

4. DBSCAN算法实战

5  DBSCAN算法的优缺点


1. DBSCAN算法的样本点组成

DBSCAN算法处理后的聚类样本点分为:核心点(core points),边界点(border points)和噪声点(noise),这三类样本点的定义如下:

核心点:对某一数据集D,若样本p的DBSCAN聚类算法原理总结-领域内至少包含MinPts个样本(包括样本p),那么样本p称核心点。

即:

DBSCAN聚类算法原理总结

称p为核心点,其中DBSCAN聚类算法原理总结-领域DBSCAN聚类算法原理总结的表达式为:

DBSCAN聚类算法原理总结


边界点:对于非核心点的样本b,若b在任意核心点p的DBSCAN聚类算法原理总结-领域内,那么样本b称为边界点。

即:

DBSCAN聚类算法原理总结

称b为边界点。
噪声点:对于非核心点的样本n,若n不在任意核心点p的DBSCAN聚类算法原理总结-领域内,那么样本n称为噪声点。

即:

DBSCAN聚类算法原理总结

称n为噪声点。

假设MinPts=4,如下图的核心点、非核心点与噪声的分布:

DBSCAN聚类算法原理总结


2. DBSCAN算法原理

由上节可知,DBSCAN算法划分数据集D为核心点,边界点和噪声点,并按照一定的连接规则组成簇类。介绍连接规则前,先定义下面这几个概念:

密度直达(directly density-reachable):若q处于p的DBSCAN聚类算法原理总结-邻域内,且p为核心点,则称q由p密度直达;

密度可达(density-reachable):若q处于p的DBSCAN聚类算法原理总结-邻域内,且p,q均为核心点,则称q的邻域点由p密度可达;

密度相连(density-connected):若p,q均为非核心点,且p,q处于同一个簇类中,则称q与p密度相连。

下图给出了上述概念的直观显示(MinPts):

DBSCAN聚类算法原理总结

其中核心点E由核心点A密度直达,边界点B由核心点A密度可达,边界点B与边界点C密度相连,N为孤单的噪声点。

DBSCAN是基于密度的聚类算法,原理为:只要任意两个样本点是密度直达或密度可达的关系,那么该两个样本点归为同一簇类,上图的样本点ABCE为同一簇类。因此,DBSCAN算法从数据集D中随机选择一个核心点作为“种子”,由该种子出发确定相应的聚类簇,当遍历完所有核心点时,算法结束。


DBSCAN算法的伪代码:

# DB为数据集,distFunc为样本间的距离函数
# eps为样本点的领域,MinPts为簇类的最小样本数
DBSCAN(DB,distFunc,eps,minPts){
C = 0 # 初始化簇类个数
# 数据集DB被标记为核心点和噪声点
for each point P in database DB{ # 遍历数据集
if label(P) != undefined then continue # 如果样本已经被标记了,跳过此次循环
Neighbors N = RangeQuery(DB,distFunc,P,eps) # 计算样本点P在eps邻域内的个数,包含样本点本身
if |N| < minPts then { # 密度估计
label(P) = Noise # 若样本点P的eps邻域内个数小于MinPts,则为噪声
continue
}
C = C + 1 # 增加簇类个数
label(P) = C # 初始化簇类标记
Seed set S = N {P} # 初始化种子集,符号表示取补集
for each point Q in S{
if label(Q) = Noise then label(Q) = C # 核心点P的邻域为噪声点,则该噪声点重新标记为边界点
if label(Q) != undefined then continue # 如果样本已经被标记了(如上次已经被标记的噪声),跳过此次循环
label(Q) = C # 核心点P的邻域都标记为簇类C
Neighbors N = RangeQuery(DB,distFunc,Q,eps) # 计算样本Q的邻域个数
if N >= minPts then{ # 密度检测,检测Q是否为核心样本
S = S.append(N) # 邻域Q样本添加到种子集
}
}
}
}

其中计算样本Q邻域个数的伪代码:

# 计算样本Q的eps邻域集
RangeQuery(DB,distFunc,Q,eps){
Neighbors = empty list # 初始化Q样本的邻域为空集
for each point P in database DB{
if distFunc(Q,P) <= eps then {
Neighbors = Neighbors.append(Q) # 若Q在P的eps邻域内,则邻域集增加该样本
}
}
return Neighbors
}

其中计算样本P与Q的距离函数dist(P,Q)不同,邻域形状也不同,若我们使用的距离是曼哈顿(manhattan)距离,则邻域性状为矩形;若使用的距离是欧拉距离,则邻域形状为圆形


DBSCAN算法可以抽象为以下几步:

1)找到每个样本的DBSCAN聚类算法原理总结-邻域内的样本个数,若个数大于等于MinPts,则该样本为核心点;

2)找到每个核心样本密度直达和密度可达的样本,且该样本亦为核心样本,忽略所有的非核心样本;

3)若非核心样本在核心样本的DBSCAN聚类算法原理总结-邻域内,则非核心样本为边界样本,反之为噪声。


3.  DBSCAN算法的参数估计

由上一节可知,DBSCAN主要包含两个参数:

DBSCAN聚类算法原理总结:两个样本的最小距离,它的含义为:如果两个样本的距离小于或等于值DBSCAN聚类算法原理总结,那么这两个样本互为邻域。

MinPts:形成簇类所需的最小样本个数,比如MinPts等于5,形成簇类的前提是至少有一个样本的DBSCAN聚类算法原理总结-邻域大于等于5。


DBSCAN聚类算法原理总结参数和MinPts参数估计:

如下图,如果DBSCAN聚类算法原理总结值取的太小,部分样本误认为是噪声点(白色);DBSCAN聚类算法原理总结值取的多大,大部分的样本会合并为同一簇类。


DBSCAN聚类算法原理总结

同样的,若MinPts值过小,则所有样本都可能为核心样本;MinPts值过大时,部分样本误认为是噪声点(白色),如下图:

DBSCAN聚类算法原理总结   DBSCAN聚类算法原理总结   DBSCAN聚类算法原理总结


根据经验,minPts的最小值可以从数据集的维数D得到,即DBSCAN聚类算法原理总结。若minPts=1,含义为所有的数据集样本都为核心样本,即每个样本都是一个簇类;若minPts≤2,结果和单连接的层次聚类相同;因此minPts必须大于等于3,因此一般认为minPts=2*dim,若数据集越大,则minPts的值选择的亦越大。

DBSCAN聚类算法原理总结值常常用k-距离曲线(k-distance graph)得到,计算每个样本与所有样本的距离,选择第k个最近邻的距离并从大到小排序,得到k-距离曲线,曲线拐点对应的距离设置为DBSCAN聚类算法原理总结,如下图:

DBSCAN聚类算法原理总结


由图可知或者根据k-距离曲线的定义可知:样本点第k个近邻距离值小于
DBSCAN聚类算法原理总结归为簇类,大于DBSCAN聚类算法原理总结的样本点归为噪声点。根据经验,一般选择DBSCAN聚类算法原理总结值等于第(minPts-1)的距离,计算样本间的距离前需要对数据进行归一化,使所有特征值处于同一尺度范围,有利于DBSCAN聚类算法原理总结参数的设置。

如果(k+1)-距离曲线和k-距离曲线没有明显差异,那么minPts设置为k值。例如k=4和k>4的距离曲线没有明显差异,而且k>4的算法计算量大于k=4的计算量,因此设置MinPts=4。


4. DBSCAN算法实战

k-means聚类算法假设簇类所有方向是同等重要的,若遇到一些奇怪的形状(如对角线)时,k-means的聚类效果很差,本节采用DBSCAN算法以及简单的介绍下如何去选择参数DBSCAN聚类算法原理总结和MinPts。

随机生成五个簇类的二维数据:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
from sklearn.cluster import DBSCAN
from sklearn.preprocessing import StandardScaler

# 生成随机簇类数据
X, y =make_blobs(random_state=170,n_samples=600,centers=5)
rng = np.random.RandomState(74)
# 数据拉伸
transformation = rng.normal(size=(2,2))
X = np.dot(X,transformation)
# 绘制延伸图
plt.scatter(X[:,0],X[:,1])
plt.xlabel("Feature 0")
plt.ylabel("Feature 1")
plt.show()

散点图为:

DBSCAN聚类算法原理总结

k-means聚类结果:

DBSCAN聚类算法原理总结

按照经验MinPts=2*ndims,因此我们设置MinPts=4。

为了方便参数DBSCAN聚类算法原理总结的选择,我们首先对数据的特征进行归一化:

#特征归一化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

假设DBSCAN聚类算法原理总结=0.5:

# dbscan聚类算法
t0=time.time()
dbscan = DBSCAN(eps=0.12,min_samples = 4)
clusters = dbscan.fit_predict(X_scaled)
# 绘制dbscan聚类结果
plt.scatter(X[:,0],X[:,1],c=clusters,cmap="plasma")
plt.xlabel("Feature 0")
plt.ylabel("Feature 1")
plt.title("eps=0.5,minPts=4")
plt.show()
t1=time.time()
print(t1-t0)

查看聚类结果:

DBSCAN聚类算法原理总结

由上图可知,所有的样本都归为一类,因此DBSCAN聚类算法原理总结设置的过大,需要减小DBSCAN聚类算法原理总结

设置DBSCAN聚类算法原理总结=0.2的结果:

DBSCAN聚类算法原理总结

由上图可知,大部分样本还是归为一类,因此DBSCAN聚类算法原理总结设置的过大,仍需要减小DBSCAN聚类算法原理总结

设置DBSCAN聚类算法原理总结=0.12的结果:

DBSCAN聚类算法原理总结

结果令人满意,看看聚类性能度量指数:

# 性能评价指标ARI
from sklearn.metrics.cluster import adjusted_rand_score
# ARI指数
print("ARI=",round(adjusted_rand_score(y,clusters),2))

#>
ARI= 0.99

由上节可知,为了较少算法的计算量,我们尝试减小MinPts的值。
设置MinPts=2的结果:

DBSCAN聚类算法原理总结

其ARI指数为:0.99

算法的运行时间较minPts=4时要短,因此我们最终选择的参数:DBSCAN聚类算法原理总结=0.12,minPts=4。

这是一个根据经验的参数优化算法,实际项目中,我们首先根据先验经验去设置参数的值,确定参数的大致范围,然后根据性能度量去选择最优参数。


5  DBSCAN算法的优缺点

优点:

1)DBSCAN不需要指定簇类的数量;

2)DBSCAN可以处理任意形状的簇类;

3)DBSCAN可以检测数据集的噪声,且对数据集中的异常点不敏感;

4)DBSCAN结果对数据集样本的随机抽样顺序不敏感(细心的读者会发现样本的顺序不一样,结果也可能不一样,如非核心点处于两个聚类的边界,若核心点抽样顺序不同,非核心点归于不同的簇类);

缺点:

1)DBSCAN最常用的距离度量为欧式距离,对于高维数据集,会带来维度灾难,导致选择合适的DBSCAN聚类算法原理总结值很难;

2)若不同簇类的样本集密度相差很大,则DBSCAN的聚类效果很差,因为这类数据集导致选择合适的minPts和值非常难,很难适用于所有簇类。

参考

https://en.wikipedia.org/wiki/DBSCAN#Parameter_estimation

https://towardsdatascience.com

A Density-Based Algorithm for Discovering Clusters 

推荐阅读


以上是关于DBSCAN聚类算法原理总结的主要内容,如果未能解决你的问题,请参考以下文章

DBSCAN密度聚类算法

无监督学习DBSCAN聚类算法原理介绍,以及代码实现

用scikit-learn学习DBSCAN聚类

用scikit-learn学习DBSCAN聚类

聚类算法--DBSCAN

深度解读 python 实现 dbscan算法