【机器学习】计算数据之间的距离(理论+图解)

简介: 【机器学习】计算数据之间的距离(理论+图解)

简 介:下面是我在学习时候的记录并加上自己的理解。本文意在记录自己近期学习过程中的所学所得,如有错误,欢迎大家指正。

 

关键词:Python、机器学习

我们有的时候需要计算多个样本之间的距离,这在聚类分析、分类等多种应用中有很重要的地位,但是我们计算距离也会有很多种方式,常见的有欧氏距离、曼哈顿距离、余弦距离等,不同的距离度量方式也会得到不同的结果。

1.欧式距离

欧式距离就是我们常见的两点间的距离公式,我们有两个向量 X = { x 1 , x 2 , x 3 , . . . , x n } X=\{x_1,x_2,x_3,...,x_n\}X={x1,x2,x3,...,xn}Y = { y 1 , y 2 , y 3 , . . . , y n } Y=\{y_1,y_2,y_3,...,y_n\}Y={y1,y2,y3,...,yn} ,它们之间的欧式距离定义为:

d i s t { X , Y } = ( x 1 − y 1 ) 2 + ( x 2 − y 2 ) 2 + . . . + ( x n − y n ) 2 2 dist\{X,Y\}=\sqrt[2]{(x_1-y_1)^2+(x_2-y_2)^2+...+(x_n-y_n)^2}dist{X,Y}=2(x1y1)2+(x2y2)2+...+(xnyn)2

代码进行实现:

>>>from scipy.spatial import distance
>>>import numpy as np
>>>x=np.random.rand(5,3)
>>>distance.cdist(x,x,"euclidean")
array([[0.        , 0.82990217, 0.51629391, 0.99795209, 1.02249614],
       [0.82990217, 0.        , 0.56393995, 1.20075826, 0.74219282],
       [0.51629391, 0.56393995, 0.        , 0.8845384 , 0.5321388 ],
       [0.99795209, 1.20075826, 0.8845384 , 0.        , 0.84551631],
       [1.02249614, 0.74219282, 0.5321388 , 0.84551631, 0.        ]])

"eculidean"参数的意思就是采用欧式距离进行计算,发现返回的矩阵是一个对称矩阵,然后对角线的元素为0,样本数据到自身的距离为0,我们观察每一行就可以发现自身距离哪一个样本最相近、相似。

2.曼哈顿距离

曼哈顿距离与欧式距离不一样的是,它采用的是各坐标点之间的绝对值之和,它的距离定义为:

d i c t { X , Y } = ∣ x 1 − y 2 ∣ + ∣ x 2 − y 2 ∣ + . . . + ∣ x n − y n ∣ dict\{X,Y\}=|x_1-y_2|+|x_2-y_2|+...+|x_n-y_n|dict{X,Y}=x1y2+x2y2+...+xnyn

代码实现:

>>>distance.cdist(x,x,"cityblock")
array([[0.        , 1.01612564, 0.78488965, 1.43836375, 1.70427565],
       [1.01612564, 0.        , 0.81865638, 2.05881281, 1.0202692 ],
       [0.78488965, 0.81865638, 0.        , 1.28359666, 0.91938601],
       [1.43836375, 2.05881281, 1.28359666, 0.        , 1.30778372],
       [1.70427565, 1.0202692 , 0.91938601, 1.30778372, 0.        ]])

3.切比雪夫距离

切比雪夫距离是指两个点之间各个坐标数值差绝对值的最大值,距离定义为:

d i c t { X , Y } = m a x i ∣ x i − y i ∣ dict\{X,Y\}=max_i|x_i-y_i|dict{X,Y}=maxixiyi

代码实现:

>>>distance.cdist(x,x,"chebyshev")
array([[0.        , 0.8179627 , 0.41831074, 0.8843322 , 0.75547722],
       [0.8179627 , 0.        , 0.39965195, 0.78974337, 0.68897626],
       [0.41831074, 0.39965195, 0.        , 0.81146349, 0.33716647],
       [0.8843322 , 0.78974337, 0.81146349, 0.        , 0.65222775],
       [0.75547722, 0.68897626, 0.33716647, 0.65222775, 0.        ]])

4.余弦距离

余弦距离是通过测量两个向量的夹角来进行度量两个向量之间的相似性,余弦距离定义为:

d i s t { X , Y } = X ∗ Y ∑ x i 2 2 ∗ ∑ y i 2 2 dist\{X,Y\}=\frac{X*Y}{\sqrt[2]{\sum{x_i^2}}*\sqrt[2]{\sum{y_i^2}}}dist{X,Y}=2xi22yi2XY

代码实现:

>>>distance.cdist(x,x,"cosine")
array([[0.00000000e+00, 2.25503928e-01, 1.02124613e-01, 6.42061802e-01,
        3.51046034e-01],
       [2.25503928e-01, 0.00000000e+00, 9.70318929e-02, 5.84748128e-01,
        1.57888440e-01],
       [1.02124613e-01, 9.70318929e-02, 1.11022302e-16, 3.40537163e-01,
        8.29298244e-02],
       [6.42061802e-01, 5.84748128e-01, 3.40537163e-01, 1.11022302e-16,
        1.61000466e-01],
       [3.51046034e-01, 1.57888440e-01, 8.29298244e-02, 1.61000466e-01,
        0.00000000e+00]])

5.相关系数距离

相关系数距离是根据相关性来定义的,距离定义为:

d i s t { X , Y } = ( x − x ‾ ) ∗ ( y − y ‾ ) ∑ x i − X ‾ 2 ∗ ∑ y i − Y ‾ 2 dist\{X,Y\}=\frac{(x-\overline{x})*(y-\overline{y})}{\sqrt[2]{\sum{x_i-\overline{X}}}*\sqrt[2]{\sum{y_i-\overline{Y}}}}dist{X,Y}=2xiX2yiY(xx)(yy)

代码实现:

>>>distance.cdist(x,x,"correlation")
array([[1.11022302e-16, 5.86032316e-01, 2.53864969e-02, 1.67676504e+00,
        1.87869710e+00],
       [5.86032316e-01, 1.11022302e-16, 3.92732690e-01, 1.95031467e+00,
        9.29197448e-01],
       [2.53864969e-02, 3.92732690e-01, 0.00000000e+00, 1.82441490e+00,
        1.74950760e+00],
       [1.67676504e+00, 1.95031467e+00, 1.82441490e+00, 0.00000000e+00,
        7.56775041e-01],
       [1.87869710e+00, 9.29197448e-01, 1.74950760e+00, 7.56775041e-01,
        0.00000000e+00]])

6.马氏距离

马氏距离表示数据的协方差距离,是一种计算两个未知样本集的相似度的有效方法,距离定义:

d i s t { X , Y } = ( X − Y ) T ∑ − 1 ( X − Y ) 2 dist\{X,Y\}=\sqrt[2]{(X-Y)^T\sum^{-1}(X-Y)}dist{X,Y}=2(XY)T1(XY)

代码实现:

>>>distance.cdist(x,x,"mahalanobis")
array([[0.        , 2.8248868 , 1.60369019, 2.74503908, 2.99946609],
       [2.8248868 , 0.        , 2.58322883, 2.99330483, 2.80400815],
       [1.60369019, 2.58322883, 0.        , 2.6914824 , 1.51050662],
       [2.74503908, 2.99330483, 2.6914824 , 0.        , 2.71938256],
       [2.99946609, 2.80400815, 1.51050662, 2.71938256, 0.        ]])


目录
相关文章
|
1天前
|
机器学习/深度学习 人工智能
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
Diff-Instruct 是一种从预训练扩散模型中迁移知识的通用框架,通过最小化积分Kullback-Leibler散度,指导其他生成模型的训练,提升生成性能。
22 11
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
|
26天前
|
机器学习/深度学习 人工智能 自然语言处理
模型训练数据-MinerU一款Pdf转Markdown软件
MinerU是由上海人工智能实验室OpenDataLab团队开发的开源智能数据提取工具,专长于复杂PDF文档的高效解析与提取。它能够将含有图片、公式、表格等多模态内容的PDF文档转化为Markdown格式,同时支持从网页和电子书中提取内容,显著提升了AI语料准备的效率。MinerU具备高精度的PDF模型解析工具链,能自动识别乱码,保留文档结构,并将公式转换为LaTeX格式,广泛适用于学术、财务、法律等领域。
148 4
|
2月前
|
机器学习/深度学习 数据采集 数据处理
谷歌提出视觉记忆方法,让大模型训练数据更灵活
谷歌研究人员提出了一种名为“视觉记忆”的方法,结合了深度神经网络的表示能力和数据库的灵活性。该方法将图像分类任务分为图像相似性和搜索两部分,支持灵活添加和删除数据、可解释的决策机制以及大规模数据处理能力。实验结果显示,该方法在多个数据集上取得了优异的性能,如在ImageNet上实现88.5%的top-1准确率。尽管有依赖预训练模型等限制,但视觉记忆为深度学习提供了新的思路。
36 2
|
3月前
|
机器学习/深度学习 存储 人工智能
揭秘机器学习背后的神秘力量:如何高效收集数据,让AI更懂你?
【10月更文挑战第12天】在数据驱动的时代,机器学习广泛应用,从智能推荐到自动驾驶。本文以电商平台个性化推荐系统为例,探讨数据收集方法,包括明确数据需求、选择数据来源、编写代码自动化收集、数据清洗与预处理及特征工程,最终完成数据的训练集和测试集划分,为模型训练奠定基础。
81 3
|
3月前
|
机器学习/深度学习 算法 Python
“探秘机器学习的幕后英雄:梯度下降——如何在数据的海洋中寻找那枚失落的钥匙?”
【10月更文挑战第11天】梯度下降是机器学习和深度学习中的核心优化算法,用于最小化损失函数,找到最优参数。通过计算损失函数的梯度,算法沿着负梯度方向更新参数,逐步逼近最小值。常见的变种包括批量梯度下降、随机梯度下降和小批量梯度下降,各有优缺点。示例代码展示了如何用Python和NumPy实现简单的线性回归模型训练。掌握梯度下降有助于深入理解模型优化机制。
41 2
|
4月前
|
机器学习/深度学习 数据采集 监控
探索机器学习:从数据到决策
【9月更文挑战第18天】在这篇文章中,我们将一起踏上一段激动人心的旅程,穿越机器学习的世界。我们将探讨如何通过收集和处理数据,利用算法的力量来预测未来的趋势,并做出更加明智的决策。无论你是初学者还是有经验的开发者,这篇文章都将为你提供新的视角和思考方式。
|
3月前
|
机器学习/深度学习 算法 数据处理
EM算法对人脸数据降维(机器学习作业06)
本文介绍了使用EM算法对人脸数据进行降维的机器学习作业。首先通过加载ORL人脸数据库,然后分别应用SVD_PCA、MLE_PCA及EM_PCA三种方法实现数据降维,并输出降维后的数据形状。此作业展示了不同PCA变种在人脸数据处理中的应用效果。
43 0
|
4月前
|
机器学习/深度学习 数据采集 算法
利用未标记数据的半监督学习在模型训练中的效果评估
本文将介绍三种适用于不同类型数据和任务的半监督学习方法。我们还将在一个实际数据集上评估这些方法的性能,并与仅使用标记数据的基准进行比较。
339 8
|
3月前
|
机器学习/深度学习 算法 数据建模
【机器学习】类别不平衡数据的处理
【机器学习】类别不平衡数据的处理
|
3月前
|
机器学习/深度学习 程序员
【机器学习】朴素贝叶斯原理------迅速了解常见概率的计算
【机器学习】朴素贝叶斯原理------迅速了解常见概率的计算