【聚类算法】| Kmeans算法的Python实现(以西瓜数据集为例)

简介: 【聚类算法】| Kmeans算法的Python实现(以西瓜数据集为例)
  • 任务:无监督聚类西瓜数据集(30样本),数据集如下所示:

image.png

西瓜书的聚类部分,有一个题目是用30个无标签的西瓜数据集来进行聚类分出3类,这里直接贴上代码。


  • 参考代码:
"""
writing by: Clichong
theme:      机器学习聚类算法的实现
data:       2022/4/27
"""
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
# 功能: 设置随机种子, 确保结果可复现
def make_seed(SEED=42):
    np.random.seed(SEED)
# 功能: 计算样本与聚类中心的距离, 返回离簇中心最近的类别
# params: sample: 单个数据样本, centers: k个簇中心
# return: 返回的是当前的样本数据属于那一个簇中心的id或者索引
def distance(sample, centers):
    # 这里用差的平方来表示距离
    d = np.power(sample - centers, 2).sum(axis=1)
    cls = d.argmin()
    return cls
# 功能: 对当前的分类子集进行可视化展示
def clusters_show(clusters, step):
    color = ["red", "blue", "pink"]
    marker = ["*", "^", "."]
    plt.figure(figsize=(8, 8))
    plt.title("step: {}".format(step))
    plt.xlabel("Density", loc="center")
    plt.ylabel("Sugar Content", loc="center")
    # 用颜色区分k个簇的数据样本
    for i, cluster in enumerate(clusters):
        cluster = np.array(cluster)
        plt.scatter(cluster[:, 0], cluster[:, 1], c=color[i], marker=marker[i], s=150)
    plt.show()
# 功能: 根据输入的样本集与划分的簇数,分别返回k个簇样本
# params: data:样本集, k:聚类簇数
# return:返回是每个簇的簇类中心
def k_means(samples, k):
    data_number = len(samples)
    centers_flag = np.zeros((k,))
    # 随机在数据中选择k个聚类中心
    centers = samples[np.random.choice(data_number, k, replace=False)]
    print(centers)
    step = 0
    while True:
        # 计算每个样本距离簇中心的距离, 然后分到距离最短的簇中心中
        clusters = [[] for i in range(k)]
        for sample in samples:
            ci = distance(sample, centers)
            clusters[ci].append(sample)
        # 可视化当前的聚类结构
        clusters_show(clusters, step)
        # 分完簇之后更新每个簇的中心点, 得到了簇中心继续进行下一步的聚类
        for i, sub_clusters in enumerate(clusters):
            new_center = np.array(sub_clusters).mean(axis=0)
            # 如果数值有变化则更新, 如果没有变化则设置标志位为1,当所有的标志位为1则退出循环
            if (centers[i] != new_center).all():
                centers[i] = new_center
            else:
                centers_flag[i] = 1
        step += 1
        print("step:{}".format(step), "\n", "centers:{}".format(centers))
        if centers_flag.all():
            break
    return centers
# 功能: 根据簇类中心对簇进行分类,获取最后的分类结果
# params: samples是全部的数据样本,centers是聚类好的簇中心
# return: 返回的是子数组
def split_data(samples, centers):
    # 根据中心样本得知簇数
    k = len(centers)
    clusters = [[] for i in range(k)]
    for sample in samples:
        ci = distance(sample, centers)
        clusters[ci].append(sample)
    return clusters
if __name__ == '__main__':
    make_seed()
    # 导入数据
    data = pd.read_excel(r"./dataset/西瓜数据集4.0.xlsx")
    samples = data[["密度", "含糖率"]].values
    # print(samples)
    centers = k_means(samples=samples, k=3)
    clusters = split_data(samples=samples, centers=centers)
    print(clusters)
  • 输出:
[[0.473 0.376]
 [0.593 0.042]
 [0.478 0.437]]
step:1  
 centers:[[0.47385714 0.29514286]
 [0.5647     0.1347    ]
 [0.60483333 0.46033333]]
step:2  
 centers:[[0.41018182 0.286     ]
 [0.571      0.14645455]
 [0.639625   0.4355    ]]
step:3  
 centers:[[0.36775    0.25616667]
 [0.63255556 0.16166667]
 [0.64488889 0.41244444]]
step:4  
 centers:[[0.36063636 0.23772727]
 [0.63255556 0.16166667]
 [0.625      0.4171    ]]
step:5  
 centers:[[0.36136364 0.21709091]
 [0.6515     0.16325   ]
 [0.61118182 0.41336364]]
step:6  
 centers:[[0.36136364 0.21709091]
 [0.6515     0.16325   ]
 [0.61118182 0.41336364]]
# 以下每个列表表示一类(一共分了3类):
[[array([0.403, 0.237]), array([0.481, 0.149]), array([0.437, 0.211]), array([0.243, 0.267]), array([0.245, 0.057]), array([0.343, 0.099]), array([0.36, 0.37]), array([0.359, 0.188]), array([0.339, 0.241]), array([0.282, 0.257]), array([0.483, 0.312])],  
[array([0.634, 0.264]), array([0.556, 0.215]), array([0.666, 0.091]), array([0.639, 0.161]), array([0.657, 0.198]), array([0.593, 0.042]), array([0.719, 0.103]), array([0.748, 0.232])],  
[array([0.697, 0.46 ]), array([0.774, 0.376]), array([0.608, 0.318]), array([0.714, 0.346]), array([0.478, 0.437]), array([0.525, 0.369]), array([0.751, 0.489]), array([0.532, 0.472]), array([0.473, 0.376]), array([0.725, 0.445]), array([0.446, 0.459])]]


  • 可视化输出:

不同的颜色分别为1类,可以看见每次聚类样本类别的变化:

image.png

image.png

image.png

image.png

image.png

image.png

ps:这个是我的一个课程作业,就直接贴上来啦,原理啥的就不多说了

目录
相关文章
|
2天前
|
机器学习/深度学习 算法 数据挖掘
基于改进ISODATA算法的负荷场景曲线聚类(matlab代码)
基于改进ISODATA算法的负荷场景曲线聚类(matlab代码)
|
4天前
|
机器学习/深度学习 自然语言处理 算法
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
|
4天前
|
算法 机器人 Python
Python实现教程:平面最短路径算法
Python实现教程:平面最短路径算法
12 1
|
4天前
|
数据采集 机器学习/深度学习 Python
python怎么对数据集进行归一化处理
python怎么对数据集进行归一化处理
13 1
|
10天前
|
机器学习/深度学习 算法 数据可视化
Matlab决策树、模糊C-均值聚类算法分析高校教师职称学历评分可视化
Matlab决策树、模糊C-均值聚类算法分析高校教师职称学历评分可视化
|
10天前
|
机器学习/深度学习 运维 算法
【Python机器学习专栏】异常检测算法在Python中的实践
【4月更文挑战第30天】本文介绍了异常检测的重要性和在不同领域的应用,如欺诈检测和网络安全。文章概述了四种常见异常检测算法:基于统计、距离、密度和模型的方法。在Python实践中,使用scikit-learn库展示了如何实现这些算法,包括正态分布拟合、K-means聚类、局部异常因子(LOF)和孤立森林(Isolation Forest)。通过计算概率密度、距离、LOF值和数据点的平均路径长度来识别异常值。
|
10天前
|
机器学习/深度学习 数据可视化 算法
【Python机器学习专栏】t-SNE算法在数据可视化中的应用
【4月更文挑战第30天】t-SNE算法是用于高维数据可视化的非线性降维技术,通过最小化Kullback-Leibler散度在低维空间保持数据点间关系。其特点包括:高维到二维/三维映射、保留局部结构、无需预定义簇数量,但计算成本高。Python中可使用`scikit-learn`的`TSNE`类实现,结合`matplotlib`进行可视化。尽管计算昂贵,t-SNE在揭示复杂数据集结构上极具价值。
|
10天前
|
机器学习/深度学习 算法 数据挖掘
【Python机器学习专栏】关联规则学习:Apriori算法详解
【4月更文挑战第30天】Apriori算法是一种用于关联规则学习的经典算法,尤其适用于购物篮分析,以发现商品间的购买关联。该算法基于支持度和置信度指标,通过迭代生成频繁项集并提取满足阈值的规则。Python中可借助mlxtend库实现Apriori,例如处理购物篮数据,设置支持度和置信度阈值,找出相关规则。
|
10天前
|
机器学习/深度学习 算法 数据挖掘
【Python机器学习专栏】层次聚类算法的原理与应用
【4月更文挑战第30天】层次聚类是数据挖掘中的聚类技术,无需预设簇数量,能生成数据的层次结构。分为凝聚(自下而上)和分裂(自上而下)两类,常用凝聚层次聚类有最短/最长距离、群集平均和Ward方法。优点是自动确定簇数、提供层次结构,适合小到中型数据集;缺点是计算成本高、过程不可逆且对异常值敏感。在Python中可使用`scipy.cluster.hierarchy`进行实现。尽管有局限,层次聚类仍是各领域强大的分析工具。
|
10天前
|
机器学习/深度学习 算法 数据挖掘
【Python 机器学习专栏】K-means 聚类算法在 Python 中的实现
【4月更文挑战第30天】K-means 是一种常见的聚类算法,用于将数据集划分为 K 个簇。其基本流程包括初始化簇中心、分配数据点、更新簇中心并重复此过程直到收敛。在 Python 中实现 K-means 包括数据准备、定义距离函数、初始化、迭代和输出结果。虽然算法简单高效,但它需要预先设定 K 值,且对初始点选择敏感,可能陷入局部最优。广泛应用在市场分析、图像分割等场景。理解原理与实现对应用聚类分析至关重要。