机器学习之聚类——谱聚类简介及其对特殊形状区域数据的聚类

简介: 机器学习之聚类——谱聚类简介及其对特殊形状区域数据的聚类

引子

       传说有个叫机器学习的星球,星球上除了海水,还分布着三个大陆,他们的名字分别是监督学习、无监督学习以及半监督学习。每个大陆都有很多王国,像回归啊,分类啊,这些王国都位于监督学习大陆。而在无监督学习的大陆上,聚类王国占据了相当大的领地,而在聚类王国里,又有很多分封的诸侯,最老牌的诸侯如K-means,可谓家喻户晓,在国际上也有举足轻重的地位,今天我们不采访他,而是关注他的邻居,谱聚类,介绍一下谱聚类的原理,以及他对社会所作的贡献。

       聚类王国里每一个国家都有一个共同的经济目标,对其国内的经济实体按内在相似性划分为多个类别,使类别内的实体相似度较大而类别间的实体相似度较小。当然,每一个国家或诸侯会采用不同的方法来实现这个目标。

聚类的衡量指标

1、同一性(Homogeneity):一个簇中只包含一个类别的样本,则满足均一性

2、完整性(Completeness):同类别样本被归类到相同簇中,则满足完整性

3、V-Measure:均一性和完整性的加权平均

这些指标可谓是聚类王国的GDP指标了,他反应了这个国家的综合经济实力,哈哈

谱聚类原理

      在谱聚类的诸侯国中,有一条很重要的宪法,这就是谱聚类的原理。它的大致内容是这样的:

每个实体,即每条数据,用空间中的一个点来代表,将这些点用边连接,距离较远的两个点之间的边权重较低,而距离较近的两个点之间的边权重较高,通过对所有数据点组成的图进行切图,让切图后的不同的子图间边权重之和尽可能小(即距离远),而子图内的边权重之和尽可能高(即距离近),这个过程也可以叫做求图的最小割。

具体做法如下:

       这里加入一些小编总结,对相似度图进行切割的过程,即求最小割的过程,和求特征向量的过程是等价的,亦即,使用特征向量来代表原数据就能使相似度图的子图间边权重之和最小,而子图内的边权重之和最大。

       详细讲述谱聚类原理的文章很多,这里只是做了简单的总结以及个人理解,不过瘾的读者可以深入研究。下面上案例

案例:对特殊形状区域数据的聚类

代码如下:

import numpy as np
import matplotlib.pyplot as plt
import matplotlib.colors
from sklearn.cluster import SpectralClustering
from sklearn.metrics import euclidean_distances
from sklearn import datasets
 
 
if __name__ == "__main__":
    matplotlib.rcParams['font.sans-serif'] = ['SimHei']
    matplotlib.rcParams['axes.unicode_minus'] = False
    # 在平面中制作一个包含较小圆圈的大圆圈
    x1, _ = datasets.make_circles(n_samples=500, noise=0.06, factor=0.2)
    # 将圆圈图像整体上移,便于与下面的半圆数据分开
    x1[:, 1] = x1[:, 1] + 3.5
    # 生成两个交错的半圆
    x2, _ = datasets.make_moons(n_samples=200, noise=0.06)
    # 将两种数据集叠加
    data = np.vstack((x1, x2))
    # 簇的个数
    n_clusters = 4
    # 计算每两个点之间的欧氏距离
    m = euclidean_distances(data, squared=True)
    # 绘图准备
    plt.figure(figsize=(12, 8), facecolor="w")
    plt.suptitle("谱聚类应用", fontsize=15)
    # 采用全连接法构造相似度图,两点的相似度采用高斯核函数,并且对比采用不同4种标准差时的聚类结果
    for i, s in enumerate(np.logspace(-2, 0, 4)):
        print(s)
        # 相似度图
        affinity = np.exp(-m ** 2 / (s ** 2)) + 1e-6
        # 谱聚类模型
        model = SpectralClustering(n_clusters=n_clusters, affinity="precomputed", assign_labels="kmeans", random_state=1)
        # 对相似度图进行预测
        y_hat = model.fit_predict(affinity)
        # 绘制聚类结果
        plt.subplot(2, 2, i+1)
        plt.scatter(data[:, 0], data[:, 1], s=40, c=y_hat, cmap=plt.cm.Spectral, edgecolors="k")
        plt.grid(visible=True, ls=":", color="#606060")
        plt.title(r"高斯核函数标准差$\sigma$ = %.2f" % s, fontsize=11)
    plt.tight_layout()
    # plt.show()
    plt.savefig('sc.png', dpi=800)

运行结果如下:

 

故事先讲到这里,期待后面的精彩故事吧!

作者这水平有限,有不足之处欢迎留言指正

相关文章
|
2月前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
149 4
|
3天前
|
机器学习/深度学习 数据采集 算法
机器学习在生物信息学中的创新应用:解锁生物数据的奥秘
机器学习在生物信息学中的创新应用:解锁生物数据的奥秘
63 36
|
10天前
|
机器学习/深度学习 人工智能
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
Diff-Instruct 是一种从预训练扩散模型中迁移知识的通用框架,通过最小化积分Kullback-Leibler散度,指导其他生成模型的训练,提升生成性能。
34 11
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
|
4天前
|
人工智能 Kubernetes Cloud Native
跨越鸿沟:PAI-DSW 支持动态数据挂载新体验
本文讲述了如何在 PAI-DSW 中集成和利用 Fluid 框架,以及通过动态挂载技术实现 OSS 等存储介质上数据集的快速接入和管理。通过案例演示,进一步展示了动态挂载功能的实际应用效果和优势。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
模型训练数据-MinerU一款Pdf转Markdown软件
MinerU是由上海人工智能实验室OpenDataLab团队开发的开源智能数据提取工具,专长于复杂PDF文档的高效解析与提取。它能够将含有图片、公式、表格等多模态内容的PDF文档转化为Markdown格式,同时支持从网页和电子书中提取内容,显著提升了AI语料准备的效率。MinerU具备高精度的PDF模型解析工具链,能自动识别乱码,保留文档结构,并将公式转换为LaTeX格式,广泛适用于学术、财务、法律等领域。
188 4
|
2月前
|
机器学习/深度学习 数据采集 数据处理
谷歌提出视觉记忆方法,让大模型训练数据更灵活
谷歌研究人员提出了一种名为“视觉记忆”的方法,结合了深度神经网络的表示能力和数据库的灵活性。该方法将图像分类任务分为图像相似性和搜索两部分,支持灵活添加和删除数据、可解释的决策机制以及大规模数据处理能力。实验结果显示,该方法在多个数据集上取得了优异的性能,如在ImageNet上实现88.5%的top-1准确率。尽管有依赖预训练模型等限制,但视觉记忆为深度学习提供了新的思路。
42 2
|
3月前
|
机器学习/深度学习 存储 人工智能
揭秘机器学习背后的神秘力量:如何高效收集数据,让AI更懂你?
【10月更文挑战第12天】在数据驱动的时代,机器学习广泛应用,从智能推荐到自动驾驶。本文以电商平台个性化推荐系统为例,探讨数据收集方法,包括明确数据需求、选择数据来源、编写代码自动化收集、数据清洗与预处理及特征工程,最终完成数据的训练集和测试集划分,为模型训练奠定基础。
90 3
|
3月前
|
机器学习/深度学习 算法 Python
“探秘机器学习的幕后英雄:梯度下降——如何在数据的海洋中寻找那枚失落的钥匙?”
【10月更文挑战第11天】梯度下降是机器学习和深度学习中的核心优化算法,用于最小化损失函数,找到最优参数。通过计算损失函数的梯度,算法沿着负梯度方向更新参数,逐步逼近最小值。常见的变种包括批量梯度下降、随机梯度下降和小批量梯度下降,各有优缺点。示例代码展示了如何用Python和NumPy实现简单的线性回归模型训练。掌握梯度下降有助于深入理解模型优化机制。
43 2
|
3月前
|
机器学习/深度学习 算法 数据可视化
机器学习的核心功能:分类、回归、聚类与降维
机器学习领域的基本功能类型通常按照学习模式、预测目标和算法适用性来分类。这些类型包括监督学习、无监督学习、半监督学习和强化学习。
79 0
|
3月前
|
机器学习/深度学习 算法 数据处理
EM算法对人脸数据降维(机器学习作业06)
本文介绍了使用EM算法对人脸数据进行降维的机器学习作业。首先通过加载ORL人脸数据库,然后分别应用SVD_PCA、MLE_PCA及EM_PCA三种方法实现数据降维,并输出降维后的数据形状。此作业展示了不同PCA变种在人脸数据处理中的应用效果。
47 0