其他分享
首页 > 其他分享> > 聚类模型之DBSCAN

聚类模型之DBSCAN

作者:互联网

DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种基于密度的空间聚类算法。

该算法将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密度相连的点的最大集合。

基础概念

    作为最经典的密度聚类算法,DBSCAN使用一组关于“邻域”概念的参数来描述样本分布的紧密程度,将具有足够密度的区域划分成簇,且能在有噪声的条件下发现任意形状的簇。在学习具体算法前,我们先定义几个相关的概念:

当minPts=3时,虚线圈表示ε邻域,则从图中我们可以观察到:

为什么要定义这些看上去差不多又容易把人绕晕的概念呢?其实ε邻域使用(ε,minpts)这两个关键的参数来描述邻域样本分布的紧密程度,规定了在一定邻域阈值内样本的个数(这不就是密度嘛)。那有了这些概念,如何根据密度进行聚类呢?

 

DBSCAN聚类的原理很简单:由密度可达关系导出最大密度相连的样本集合(聚类)。这样的一个集合中有一个或多个核心对象,如果只有一个核心对象,则簇中其他非核心对象都在这个核心对象的ε邻域内;如果是多个核心对象,那么任意一个核心对象的ε邻域内一定包含另一个核心对象(否则无法密度可达)。这些核心对象以及包含在它ε邻域内的所有样本构成一个类。

  那么,如何找到这样一个样本集合呢?一开始任意选择一个没有被标记的核心对象,找到它的所有密度可达对象,即一个簇,这些核心对象以及它们ε邻域内的点被标记为同一个类;然后再找一个未标记过的核心对象,重复上边的步骤,直到所有核心对象都被标记为止。

  算法的思想很简单,但是我们必须考虑一些细节问题才能产出一个好的聚类结果:

 

之前我们学过了kmeans算法,用户需要给出聚类的个数k,然而我们往往对k的大小无法确定。DBSCAN算法最大的优势就是无需给定聚类个数k,且能够发现任意形状的聚类,且在聚类过程中能自动识别出离群点。那么,我们在什么时候使用DBSCAN算法来聚类呢?一般来说,如果数据集比较稠密且形状非凸,用密度聚类的方法效果要好一些。

DBSCAN算法优点:

  1. 不需要事先指定聚类个数,且可以发现任意形状的聚类;

  2. 对异常点不敏感,在聚类过程中能自动识别出异常点;

  3. 聚类结果不依赖于节点的遍历顺序;

DBSCAN缺点:

  1. 对于密度不均匀,聚类间分布差异大的数据集,聚类质量变差;

  2. 样本集较大时,算法收敛时间较长;

  3. 调参较复杂,要同时考虑两个参数;

 

代码实现:

 1 #用Python实现DBSCAN聚类算法
 2 #导入数据:
 3 import pandas as pd
 4 from sklearn.datasets import load_iris
 5 # 导入数据,sklearn自带鸢尾花数据集
 6 iris = load_iris().data
 7 print(iris)
 8 
 9 #使用DBSCAN算法:
10 from sklearn.cluster import DBSCAN
11 
12 iris_db = DBSCAN(eps=0.6,min_samples=4).fit_predict(iris)
13 # 设置半径为0.6,最小样本量为2,建模
14 db = DBSCAN(eps=10, min_samples=2).fit(iris)
15  
16 # 统计每一类的数量
17 counts = pd.value_counts(iris_db,sort=True)
18 print(counts)
19 
20 #可视化:
21 import matplotlib.pyplot as plt
22 plt.rcParams['font.sans-serif'] = [u'Microsoft YaHei']
23 
24 fig,ax = plt.subplots(1,2,figsize=(12,12))
25 
26 # 画聚类后的结果
27 ax1 = ax[0]
28 ax1.scatter(x=iris[:,0],y=iris[:,1],s=250,c=iris_db)
29 ax1.set_title('DBSCAN聚类结果',fontsize=20)
30 
31 # 画真实数据结果
32 ax2 = ax[1]
33 ax2.scatter(x=iris[:,0],y=iris[:,1],s=250,c=load_iris().target)
34 ax2.set_title('真实分类',fontsize=20)
35 plt.show()
36 
37 #这时候可以使用轮廓系数来判定结果好坏,聚类结果的轮廓系数,定义为S,是该聚类是否合理、有效的度量。
38 #聚类结果的轮廓系数的取值在[-1,1]之间,值越大,说明同类样本相距约近,不同样本相距越远,则聚类效果越好。
39 from sklearn import metrics  
40 # 就是下面这个函数可以计算轮廓系数(sklearn真是一个强大的包)
41 score = metrics.silhouette_score(iris,iris_db) 
42 score

 

参考资料

1、https://mp.weixin.qq.com/s/heRnd6lA4H1Cj7S4wR0SkQ

2、DBSCAN密度聚类算法 - 刘建平Pinard - 博客园 (cnblogs.com)

3、https://zhuanlan.zhihu.com/p/185623849

4、https://blog.csdn.net/wuxintdrh/article/details/105449771

5、https://www.cnblogs.com/pinard/p/6217852.html

 

 

---------------------------本博客所有内容以学习、研究和分享为主,如需转载,请联系本人,标明作者和出处,并且是非商业用途,谢谢!---------------------

作者:enhaofrank

出处:https://www.cnblogs.com/enhaofrank/

中科院硕士毕业

现为深漂打工人

标签:iris,DBSCAN,模型,样本,邻域,密度,聚类
来源: https://www.cnblogs.com/enhaofrank/p/13223333.html