利用 K-Means 聚类进行色彩量化

简介: K-Means 聚类算法的目标是将 n 个样本划分(聚类)为 K 个簇,该算法通过找到簇的中心并将输入样本分组到簇周围。在本文中,利用 K-Means 聚类进行色彩量化,以减少图像中颜色数量。

前言

K-Means 聚类算法的目标是将 n 个样本划分(聚类)为 K 个簇,我们可以利用 OpenCV 提供的 cv2.kmeans() 函数实现 K-Means 聚类算法,该算法通过找到簇的中心并将输入样本分组到簇周围。在本文中,我们将学习如何利用 K-Means 聚类进行色彩量化,以减少图像中颜色数量。

利用 K-Means 聚类进行色彩量化

色彩量化问题可以定义为减少图像中颜色数量的过程。色彩量化对于某些设备显示图像非常关键,这些设备可能由于内存限制等原因只能显示有限颜色,因此,在这些设备上显示色彩通常需要在准确性和减少颜色数量之间进行权衡,在利用 K-Means 聚类进行色彩量化时,权衡两者是通过正确设置 K 参数来进行的。

利用 K-Means 聚类算法来执行色彩量化,簇中心数据由 3 个特征组成,它们对应于图像每个像素的 B、G 和 R 值。因此,关键是将图像转换为数据:

data=np.float32(image).reshape((-1, 3))

为了观察如何权衡准确性和颜色数,我们使用不同 K 值 (3 、 5 、 10 、 20 和 40) 执行聚类过程,以查看生成的图像如何变化,如果我们想要只有 3 种颜色 (K = 3) 的结果图像,需要执行以下操作:

1. 加载 BGR 图像:

img=cv2.imread('example.jpg')

2. 使用 color_quantization() 函数执行色彩量化:

defcolor_quantization(image, k):
# 将图像转换为数据data=np.float32(image).reshape((-1, 3))
# 算法终止条件criteria= (cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER, 20, 1.0)
# K-Means 聚类ret, label, center=cv2.kmeans(data, k, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)
# 簇中心center=np.uint8(center)
# 将具有 k 颜色中心的图像转换为 uint8result=center[label.flatten()]
result=result.reshape(img.shape)
returnresultcolor_3=color_quantization(img, 3)

color_quantization() 函数中,关键点是利用 cv2.kmeans() 方法。最后,可以用 k 种颜色来构建图像,用它们对应的中心值替换每个像素值,程序的运行结果如下所示:

绘图163.png

绘图162.png

显示色彩量化后的色彩分布

可以扩展以上程序使其显示色彩量化后的色彩分布,该色彩分布显示了分配给每个聚类中心的像素数。只需扩展 color_quantization() 函数已被修改为包含所需功能:

importcollectionsdefcolor_quantization(image, k):
# 将图像转换为数据data=np.float32(image).reshape((-1, 3))
# 算法终止条件criteria= (cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER, 20, 1.0)
# K-Means 聚类ret, label, center=cv2.kmeans(data, k, None, criteria, 10, cv2.KMEANS_RANDOM_CENTERS)
# 簇中心center=np.uint8(center)
# 将具有 k 颜色中心的图像转换为 uint8result=center[label.flatten()]
result=result.reshape(img.shape)
# 统计分配给每个聚类中心的像素数counter=collections.Counter(label.flatten())
print(counter)
# 计算输入图像的总像素数total=img.shape[0] *img.shape[1]
# 为色彩分布图像指定宽度和高度:desired_width=img.shape[1]
desired_height=70desired_height_colors=50# 初始化色彩分布图像color_distribution=np.ones((desired_height, desired_width, 3), dtype='uint8') *255start=0forkey, valueincounter.items():
# 归一化value_normalized=value/total*desired_widthend=start+value_normalized# 绘制与当前颜色对应的矩形cv2.rectangle(color_distribution, (int(start), 0), (int(end), desired_height_colors), center[key].tolist(), -1)
start=endreturnnp.vstack((color_distribution, result))

上述代码中,使用 collections.Counter() 来统计分配给每个聚类中心的像素数:

counter=collections.Counter(label.flatten())

例如,如果 K = 10,则可以得到如下结果:

Counter({7: 37199, 3: 36302, 0: 29299, 5: 23987, 6: 23895, 1: 20077, 9: 19814, 8: 18427, 4: 16221, 2: 14779})

构建色彩分布图像后,将其与色彩量化后的图像连接在一起:

np.vstack((color_distribution, result))

程序的输出如下所示:

绘图164.png

从上图可以看出,使用 K-Means 聚类算法应用色彩量化后改变参数 k (10、20、30、40、50、60 和 70) 的结果,k 值越大产生的图像越逼真。

相关文章
|
人工智能 数据可视化 数据挖掘
使用轮廓分数提升时间序列聚类的表现
我们将使用轮廓分数和一些距离指标来执行时间序列聚类实验,并且进行可视化
106 0
|
7月前
|
机器学习/深度学习 数据采集 算法
KMeans+DBSCAN密度聚类+层次聚类的使用(附案例实战)
KMeans+DBSCAN密度聚类+层次聚类的使用(附案例实战)
555 0
|
4月前
|
数据采集 算法 数据可视化
基于K-Means聚类算法对球员数据的聚类分析,可以自主寻找最优聚类数进行聚类
本文介绍了一个基于K-Means聚类算法的NBA球员数据分析项目,该项目通过采集和分析球员的得分、篮板、助攻等统计数据,使用轮廓系数法和拐点法确定最优聚类数,将球员分为不同群组,并提供了一个可视化界面以便直观比较不同群组的球员表现。
基于K-Means聚类算法对球员数据的聚类分析,可以自主寻找最优聚类数进行聚类
|
5月前
|
机器学习/深度学习 运维 算法
「AIGC算法」K-means聚类模型
**K-means聚类模型概览:** - 是无监督学习算法,用于数据集自动分组。 - 算法步骤:初始化质心,分配数据点,更新质心,迭代直至收敛。 - 关键点包括K的选择、初始化方法、收敛性和性能度量。 - 优点是简单快速,适合大样本,但对初始点敏感,需预设K值,且仅适于球形簇。 - 应用场景包括图像分割、市场分析、异常检测等。 - 示例展示了使用scikit-learn对Iris数据集和自定义CSV数据进行聚类。
62 0
「AIGC算法」K-means聚类模型
|
6月前
|
机器学习/深度学习 数据挖掘
机器学习之聚类——模糊聚类FCM
机器学习之聚类——模糊聚类FCM
101 4
|
5月前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类模型算法
K-means聚类模型算法
|
6月前
|
机器学习/深度学习 算法 数据挖掘
机器学习之聚类——MeanShift算法和图像矢量量化
机器学习之聚类——MeanShift算法和图像矢量量化
59 0
|
7月前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】为什么K-means算法使用欧式距离度量?
【5月更文挑战第11天】【机器学习】为什么K-means算法使用欧式距离度量?
|
7月前
|
机器学习/深度学习 算法 数据可视化
R语言谱聚类、K-MEANS聚类分析非线性环状数据比较
R语言谱聚类、K-MEANS聚类分析非线性环状数据比较
|
机器学习/深度学习 算法 数据挖掘
【图像聚类】基于K-means聚类算法路标识别与提取附Matlab代码
【图像聚类】基于K-means聚类算法路标识别与提取附Matlab代码