技术心得记录:机器学习笔记之聚类算法层次聚类HierarchicalClustering

简介: 技术心得记录:机器学习笔记之聚类算法层次聚类HierarchicalClustering

阅读目录


0x01 层次聚类简介0x02 自顶向下的层次聚类算法(Divisive)0x03 自底向上的层次聚类算法(Agglomerative)0x04 利用 Scipy 实现层次聚类0x05 利用 Sklearn 实现层次聚类0x06 转载


0x01 层次聚类简介


层次聚类算法(Hierarchical Clustering)将数据集划分为一层一层的clusters,后面一层生成的clusters基于前面一层的结果。层次聚类算法一般分为两类:


Divisive 层次聚类:又称自顶向下(top-down)的层次聚类,最开始所有的对象均属于一个cluster,每次按一定的准则将某个cluster 划分为多个cluster,如此往复,直至每个对象均是一个cluster。


Agglomerative 层次聚类:又称自底向上(bottom-up)的层次聚类,每一个对象最开始都是一个cluster,每次按一定的准则将最相近的两个cluster合并生成一个新的cluster,如此往复,直至最终所有的对象都属于一个cluster。


下图直观的给出了层次聚类的思想以及以上两种聚类策略的异同:


层次聚类算法是一种贪心算法(greedy algorithm),因其每一次合并或划分都是基于某种局部最优的选择。


0x02 自顶向下的层次聚类算法(Divisive)


2.1 Hierarchical K-means算法


Hierarchical K-means算法是“自顶向下”的层次聚类算法,用到了基于划分的聚类算法那K-means,算法思路如下:


首先,把原始数据集放到一个簇C,这个簇形成了层次结构的最顶层


使用K-means算法把簇C划分成指定的K个子簇Ci,i=1,2,…,k,形成一个新的层


对于步骤2所生成的K个簇,递归使用K-means算法划分成更小的子簇,直到每个簇不能再划分(只包含一个数据对象)或者满足设定的终止条件。


如下图,展示了一组数据进行了二次K-means算法的过程:


Hierarchical K-means算法一个很大的问题是,一旦两个点在最开始被划分到了不同的簇,即使这两个点距离很近,在后面的过程中也不会被聚类到一起。


对于以上的例子,红色椭圆框中的对象聚类成一个簇可能是更优的聚类结果,但是由于橙色对象和绿色对象在第一次K-means就被划分到不同的簇,之后也不再可能被聚类到同一个簇。


Bisecting k-means聚类算法,即二分k均值算法,是分层聚类(Hierarchical clustering)的一种。更多关于二分k均值法,可以查看聚类算法之K-Means。


0x03 自底向上的层次聚类算法(Agglomerative)


层次聚类的合并算法通过计算两类数据点间的相似性,对所有数据点中最为相似的两个数据点进行组合,并反复迭代这一过程。简单的说层次聚类的合并算法是通过计算每一个类别的数据点与所有数据点之间的距离来确定它们之间的相似性,距离越小,相似度越高。并将距离最近的两个数据点或类别进行组合,生成聚类树。


相比于Hierarchical K-means算法存在的问题,Agglomerative Clustering算法能够保证距离近的对象能够被聚类到一个簇中,该算法采用的“自底向上”聚类的思路。


3.1 Agglomerative算法示例


对于如下数据:


1、 将A到F六个点,分别生成6个簇


2、 找到当前簇中距离最短的两个点,这里我们使用单连锁的方式来计算距离,发现A点和B点距离最短,将A和B组成一个新的簇,此时簇列表中包含五个簇,分别是{A,B},{C},{D},{E},{F},如下图所示:


3、重复步骤2、发现{C}和{D}的距离最短,连接之,然后是簇{C,D}和簇{E}距离最短,依次类推,直到最后只剩下一个簇,得到如下所示的示意图:


4、此时原始数据的聚类关系是按照层次来组织的,选取一个簇间距离的阈值,可以得到一个聚类结果,比如在如下红色虚线的阈值下,数据被划分为两个簇:簇{A,B,C,D,E}和簇{F}


Agglomerative聚类算法的优点是能够根据需要在不同的尺度上展示对应的聚类结果,缺点同Hierarchical K-means算法一样,一旦两个距离相近的点被划分到不同的簇,之后也不再可能被聚类到同一个簇,即无法撤销先前步骤的工作。另外,Agglomerative性能较低,并且因为聚类层次信息需要存储在内存中,内存消耗大,不适用于大量级的数据聚类。


3.2 对象之间的距离衡量


衡量两个对象之间的距离的方式有多种,对于数值类型(Numerical)的数据,常用的距离衡量准则有 Euclidean 距离、Manhattan 距离、Chebyshev 距离、Minkowski 距离等等。


3.3 Cluster 之间的距离衡量


除了需要衡量对象之间的距离之外,层次聚类算法还需要衡量cluster之间的距离,常见的cluster之间的衡量方法有 Single-link 方法、Complete-link 方法、UPGMA(Unweighted Pair Group Method using arithmetic Averages)方法、WPGMA(Weighted Pair Group Method using arithmetic Averages)方法、Centroid 方法(又称 UPGMC,Unweighted Pair Group Method using Centroids)、Median 方法(又称 WPGMC,weighted Pair Group Method using Centroids)、Ward 方法。前面四种方法是基于图的,因为在这些方法里面,cluster是由样本点或一些子cluster(这些样本点或子cluster之间的距离关系被记录下来,可认为是图的连通边)所表示的;后三种方法是基于几何方法的(因而其对象间的距离计算方式一般选用 Euclidean 距离),因为它们都是用一个中心点来代表一个cluster。


假设Ci和Cj为两个cluster,则前四种方法定义的Ci和Cj之间的距离如下表所示:


简单的理解:


Single Linkage:方法是将两个组合数据点中距离最近的两个数据点间的距离作为这两个组合数据点的距离。这种方法容易受到极端值的影响。两个很相似的组合数据点可能由于其中的某个极端的数据点距离较近而组合在一起。


Complete Linkage:Complete Linkage的计算方法与Single Linkage相反,将两个组合数据点中距离最远的两个数据点间的距离作为这两个组合数据点的距离。Complete Linkage的问题也与Single Linkage相反,两个不相似的组合数据点可能由于其中的极端值距离较远而无法组合在一起。


Average Linkage:Average Linkage的计算方法是计算两个组合数据点中的每个数据点与其他所有数据点的距离。将所有距离的均值作为两个组合数据点间的距离。这种方法计算量比较大,但结果比前两种方法更合理。


其中 Single-link 定义两个 cluster 之间的距离为两个 cluster 之间距离最近的两个对象间的距离,这样在聚类的过程中就可能出现链式效应,即有可能聚出长条形状的 cluster;而 Complete-link 则定义两个 cluster 之间的距离为两个 cluster 之间距离最远的两个对象间的距离,这样虽然避免了链式效应,但其对异常样本点(不符合数据集的整体分布的噪声点)却非常敏感,容易产生不合理的聚类;UPGMA 正好是 Single-link 和 Complete-link 的一个折中,其定义两个 cluster 之间的距离为两个 cluster 之间两个对象间的距离的平均值;而 WPGMA 则计算的是两个 cluster 之间两个对象之间的距离的加权平均值,加权的目的是为了使两个 cluster 对距离的计算的影响在同一层次上,而不受 cluster 大小的影响(其计算方法这里没有给出,因为在运行层次聚类算法时,我们并不会直接通过样本点之间的距离之间计算两个 cluster 之间的距离,而是通过已有的 cluster 之间的距离来计算合并后的新的 cluster 和剩余cluster 之间的距离,这种计算方法将由下一部分中的 Lance-Williams 方法给出)。


Centroid/UPGMC方法给每一个cluster 计算一个质心,两个 cluster 之间的距离即为对应的两个质心之间的距离,一般计算方法如下:


3.4 常用Agglomerative算法


0x04 利用 Scipy 实现层次聚类


4.1 生成测试数据


from sklearn.datasets import make_blobs


import matplotlib.pyplot as plt


centers = 【【1, 1】, 【-1, -1】, 【1, -1】】


X, labels_true = make_blobs(n_samples=750, centers=centers, cluster_std=0.4, random_state=0)


plt.figure(figsize=(10, 8))


plt.scatter(X【:, 0】, X【:, 1】, c='b')


plt.show()


4.2 SciPy层次聚类实现


SciPy 里面进行层次聚类非常简单,直接调用 linkage 函数,一行代码即可搞定:


from scipy.cluster.hierarchy import linkage


Z = linkage(X, method='ward', metric='euclidean')


print(Z.shape)


print(Z【: 5】)


以上即进行了一次cluster间距离衡量方法为Ward、样本间距离衡量准则为Euclidean距离的Agglomerative层次聚类,其中method参数可以为’single’、’complete’、’average’、’weighted’、’centroid’、’median’、’ward’中的一种,分别对应我们前面讲到的 Single-link、Complete-link、UPGMA、WPGMA、UPGMC、WPGMC、Ward 方法,而样本间的距离衡量准则也可以由 metric 参数调整。


linkage 函数的返回值 Z 为一个维度(n-1)*4的矩阵,记录的是层次聚类每一次的合并信息,里面的 4 个值分别对应合并的两个cluster的序号、两个cluster之间的距离以及本次合并后产生的新的 cluster 所包含的样本点的个数。


4.3 画出树形图


SciPy 中给出了根据层次聚类的结果 Z 绘制树形图的函数dendrogram,我们由此画出本次实验中的最后 20 次的合并过程。


from scipy.cluster.hierarchy import dendrogram


plt.figure(figsize=(10, 8))


dendrogram(Z, truncate_mode='lastp', p=20, show_leaf_counts=False, leaf_rotation=90, leaf_font_size=15,


show_contracted=True)


plt.show()


得到的树形图如下所示:


可以看到,该树形图的最后两次合并相比之前合并过程的合并距离要大得多,由此可以说明最后两次合并是不合理的;因而对于本数据集,该算法可以很好地区分出 3 个 cluster(和实际相符),分别在上图中由三种颜色所表示。


4.4、获取聚类结果


在得到了层次聚类的过程信息 Z 后,我们可以使用 fcluster 函数来获取聚类结果。可以从两个维度来得到距离的结果,一个是指定临界距离 d,得到在该距离以下的未合并的所有 cluster 作为聚类结果;另一个是指定 cluster 的数量 k,函数会返回最后的 k 个 cluster 作为聚类结果。使用哪个维度由参数 criterion 决定,对应的临界距离或聚类的数量则由参数 t 所记录。fcluster 函数的结果为一个一维数组,记录每个样本的类别信息。


from scipy.cluster.hierarchy import fcluster


# 根据临界距离返回聚类结果


d = 15


labels_1 = fcluster(Z, t=d, criterion='distance')


print(labels_1【: 100】) # 打印聚类结果


print(len(set(labels_1))) # 看看在该临界距离下有几个 cluster


# 根据聚类数目返回聚类结果


k = 3


labels_2 = fcluster(Z, t=k, criterion='maxclust')


print(labels_2【: 100】)


list(labels_1) == list(labels_2) # 看看两种不同维度下得到的聚类结果是否一致


# 聚类的结果可视化,相同的类的样本点用同一种颜色表示


plt.figure(figsize=(10, 8))


plt.scatter(X【:, 0】, X【:, 1】, c=labels_2, cmap='prism')


plt.show()


上图的聚类结果和实际的数据分布基本一致,但有几点值得注意,一是在聚类之前我们没法知道合理的聚类的数目或者最大的距离临界值,只有在得到全部的层次聚类信息并对其进行分析后我们才能预估出一个较为合理的数值;二是本次实验的数据集比较简单,所以聚类的结果较好,但对于复杂的数据集(比如非凸的、噪声点比较多的数据集),层次聚类算法有其局限性。


4.5 比较不同方法下的聚类结果


最后,我们对同一份样本集进行了 cluster 间距离衡量准则分别为 Single-link、Complete-link、UPGMA(Average)和 Ward 的 Agglomerative 层次聚类,取聚类数目为 3,代码如下:


from time import time


import numpy as np


from sklearn.datasets import make_blobs


from scipy.cluster.hierarchy import linkage, fcluster


from sklearn.metrics.cluster import adjusted_mutual_info_score


import matplotlib.pyplot as plt


# 生成样本点


centers = 【【1, 1】, 【-1, -1】, 【1, -1】】


X, labels = make_blobs(n_samples=750, centers=centers,


cluster_std=0.4, random_state=0)


# 可视化聚类结果


def plot_clustering(X, labels, title=None):


plt.scatter(X【:, 0】, X【:, 1】, c=labels, cmap='prism')


if title is not None:


plt.title(title, size=17)


plt.axis('off')


plt.tight_layout()


# 进行 Agglomerative 层次聚类


linkage_method_list = 【'single', 'complete', 'average', 'ward'】


plt.figure(figsize=(10, 8))


ncols, nrows = 2, int(np.ceil(len(linkage_method_list) / 2))


plt.subplots(nrows=nrows, ncols=ncols)


for i, linkage_method in enumerate(linkage_method_list):


print('method %s:' % linkage_method)


start_time = time()


Z = linkage(X, method=linkage_method)


labels_pred = fcluster(Z, t=3, criterion='maxclust')


print('Adjust mutual information: %.3f' % adjusted_mutual_info_score(labels, labels_pred))


print('time used: %.3f seconds' % (time() - start_time))


plt.subplot(nrows, ncols, i + 1)


plot_clustering(X, labels_pred, '%s linkage' % linkage_method)


plt.show()


可以得到 4 种方法下的聚类结果如图所示:


在上面的过程中,我们还为每一种聚类产生的结果计算了一个用于评估聚类结果与样本的真实类之间的相近程度的AMI(Adjust Mutual Information)量,该量越接近于 1 则说明聚类算法产生的类越接近于真实情况。程序的打印结果如下:


method single:


Adjust mutual information: 0.002


time used: 0.010 seconds


method complete:


Adjust mutual information: 0.840


time used: 0.021 seconds


method average:


Adjust mutual information: 0.945


time used: 0.027 seconds


method ward:


Adjust mutual information: 0.956


time used: 0.021 seconds


从上面的图和 AMI 量的表现来看,Single-link 方法下的层次聚类结果最差,它几乎将所有的点都聚为一个 cluster,而其他两个 cluster 则都仅包含个别稍微有点偏离中心的样本点,这充分体现了 Single-link 方法下的“链式效应”,也体现了 Agglomerative 算法的一个特点,即“赢者通吃”(rich getting richer): Agglomerative 算法倾向于聚出不均匀的类,尺寸大的类倾向于变得更大,对于 Single-link 和 UPGMA(Average) 方法尤其如此。由于本次实验的样本集较为理想,因此除了 Single-link 之外的其他方法都表现地还可以,但当样本集变复杂时,上述“赢者通吃” 的特点会显现出来。


0x05 利用 Sklearn 实现层次聚类


除了Scipy外,scikit-learn也提供了层次聚类的方法sklearn.cluster.AgglomerativeClustering,使用示例


from sklearn.datasets import make_blobs


from sklearn.cluster import AgglomerativeClustering


import //代码效果参考:http://hnjlyzjd.com/xl/wz_24944.html

matplotlib.pyplot as plt

# 生成样本点


centers = 【【1, 1】, 【-1, -1】, 【1, -1】】


X, labels = make_blobs(n_samples=750, centers=centers,


cluster_std=0.4, random_state=0)


clustering = AgglomerativeClustering(nclusters=3, linkage='ward').fit(X)


plt.figure(figsize=(10, 8))


plt.scatter(X【:, 0】, X【:, 1】, c=clustering.labels, cmap='prism')


plt.show()


参考链接:


聚类分析(一):层次聚类算法


0x06 转载

相关文章
|
21天前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
65 4
|
4天前
|
机器学习/深度学习 传感器 运维
使用机器学习技术进行时间序列缺失数据填充:基础方法与入门案例
本文探讨了时间序列分析中数据缺失的问题,并通过实际案例展示了如何利用机器学习技术进行缺失值补充。文章构建了一个模拟的能源生产数据集,采用线性回归和决策树回归两种方法进行缺失值补充,并从统计特征、自相关性、趋势和季节性等多个维度进行了详细评估。结果显示,决策树方法在处理复杂非线性模式和保持数据局部特征方面表现更佳,而线性回归方法则适用于简单的线性趋势数据。文章最后总结了两种方法的优劣,并给出了实际应用建议。
26 7
使用机器学习技术进行时间序列缺失数据填充:基础方法与入门案例
|
5天前
|
编解码 机器人 测试技术
技术实践 | 使用 PAI+LLaMA Factory 微调 Qwen2-VL 模型快速搭建专业领域知识问答机器人
Qwen2-VL是一款具备高级图像和视频理解能力的多模态模型,支持多种语言,适用于多模态应用开发。通过PAI和LLaMA Factory框架,用户可以轻松微调Qwen2-VL模型,快速构建文旅领域的知识问答机器人。本教程详细介绍了从模型部署、微调到对话测试的全过程,帮助开发者高效实现定制化多模态应用。
|
20天前
|
机器学习/深度学习 Python
机器学习中模型选择和优化的关键技术——交叉验证与网格搜索
本文深入探讨了机器学习中模型选择和优化的关键技术——交叉验证与网格搜索。介绍了K折交叉验证、留一交叉验证等方法,以及网格搜索的原理和步骤,展示了如何结合两者在Python中实现模型参数的优化,并强调了使用时需注意的计算成本、过拟合风险等问题。
41 6
|
17天前
|
机器学习/深度学习 算法 数据挖掘
C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出
本文探讨了C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出。文章还介绍了C语言在知名机器学习库中的作用,以及与Python等语言结合使用的案例,展望了其未来发展的挑战与机遇。
36 1
|
22天前
|
机器学习/深度学习 搜索推荐 算法
在数字化时代,推荐系统成为互联网应用的重要组成部分,通过机器学习技术根据用户兴趣和行为提供个性化推荐,提升用户体验
在数字化时代,推荐系统成为互联网应用的重要组成部分,通过机器学习技术根据用户兴趣和行为提供个性化推荐,提升用户体验。本文探讨了推荐系统的基本原理、常用算法、实现步骤及Python应用,介绍了如何克服数据稀疏性、冷启动等问题,强调了合理选择算法和持续优化的重要性。
58 4
|
26天前
|
机器学习/深度学习 自然语言处理 算法
深入理解机器学习算法:从线性回归到神经网络
深入理解机器学习算法:从线性回归到神经网络
|
22天前
|
机器学习/深度学习 数据可视化 算法
机器学习中的特征选择与降维技术
机器学习中的特征选择与降维技术
58 0
|
26天前
|
机器学习/深度学习 算法
深入探索机器学习中的决策树算法
深入探索机器学习中的决策树算法
34 0
|
27天前
|
机器学习/深度学习 算法 Python
机器学习入门:理解并实现K-近邻算法
机器学习入门:理解并实现K-近邻算法
32 0