无监督学习-邻域嵌入方法|深度学习(李宏毅)(十八)

简介: 无监督学习-邻域嵌入方法|深度学习(李宏毅)(十八)

一、概述


流形学习(Manifold Learning)是指通过从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现降维或者数据可视化。拿地球举例来说就是地球的表面可以认为是一个二维平面被塞到了三维空间中,那么欧氏距离(Euclidean Distance)就只能在短距离内成立,在较远的距离就不再成立:


GJI0{EOV])C{NO@ZP5%70XV.png

                             地球


再举一个例子,在下图中可以认为一个二维平面被扭曲放入一个三维空间中,在很小的距离内欧式举例是成立的:


Y5EE[STS3E1M(`WRS0RB_PQ.png

                        短距离


而如果距离太远的话则可能欧氏距离就不成立,如下图所示,黑点到蓝点的欧氏距离比到红点的欧氏距离更小,但是从数据分布上来看黑点和红点更加相似一些,这时欧式距离就没有意义了:


NO6ZCN(Q(46HXZ[KF`L{9HG.png

                   远距离


对于上面的例子,流形学习要做的就是学习数据在低维空间的表示形式,通俗来说,就是将上图中的数据“展开”:

M}H76H8HX[UFE_(NX~FBXNL.png

                       数据


这样的数据显然更容易用来进行聚类或者其他的监督学习方法。接下来的部分介绍几种流形学习的方法。


二、Locally Linear Embedding(LLE)


Locally Linear Embedding(LLE)是一种非线性降维算法,可以使降维后的数据保持比较好的原有的流形结构。


}}EB8X)XL40RXHR~WW(R`)I.png                                                     原数据


$2FX6]}J7B6RBQV4H$2%${7.png                                                降维后的数据


]4CT4KE88QUP[])RER71TPD.png

在使用LLE进行降维时,选择邻域内的几个点是一个可以调整的超参数,选用过少或过多的点效果都不会太好,选择过多邻居的局限性在于这样会考虑进一些距离较远的点,而欧氏距离在远距离的效果不太好。下图展示了不同数量的邻近点的效果:


W}[%@LOT41)0]RRQ2IG}40M.png

                                                效果


三、Laplacian Eigenmaps


  1. 简介


拉普拉斯特征映射(Laplacian Eigenmaps)是一种基于图的降维算法,依赖于平滑性假设(Smoothness Assumption),其希望降维后的点(图中有边相连的点)在降维后的空间中能够相互接近,从而保持其原有的数据结构。


  1. 图的构建


具体地,假定在高维空间中有下图的数据点,则两个红色数据点之间的距离使用欧氏距离来度量的话是没有意义的,数据点之间在流形中的距离才可以表明其相似的程度。


ZJB0OOAL~M~E7$D{B(PB7XQ.png

                                      数据


使用拉普拉斯特征映射的方法首先需要构建一张图,构建的方法就是将相似度高的点之间连一条边,可以设置一个阈值,每个点与其相似度达到阈值的点之间连接一条边,边的权重就是相似度,也可以将每个点与固定P)H{]TA18$W(SRNEP6M1JN6.png个最相似的点连接起来。相似度可以采用径向基函数或者余弦相似度等等。

B@P1_K{Y~(WAFBT631DLUWH.png

得到的图如下:


@Y5FM4DX(LGT){IJY7I7X5S.png

                                         图


两个数据点在流形中的距离可以用图中的距离来近似:


}AQ~GJZO]2W@UN$34$Y52%Q.png

                                    距离


  1. 类比半监督学习


参考以下链接中平滑性假设基于图的方法这一部分:半监督学习|深度学习(李宏毅)(九)

在半监督学习平滑性假设基于图的方法中,通过给损失函数添加一个正则化~GI6R~@FM22RFG[N]0K9T74.png项可以利用无标签数据进行半监督学习,~GI6R~@FM22RFG[N]0K9T74.png用来评估标签的相关性,这个正则化项为:

 WYIR%PJOMNDQ8NG23_8WLN7.png

                                           图的度矩阵


JPHJD%`%F(S6WD@0U%{UXHC.png


  1. Laplacian Eigenmaps

2A3$[VMM~2V2272T)$M{%SS.png


2A3$[VMM~2V2272T)$M{%SS.png

I_4~C%KV[G6HLSIYJ$$43YV.png

对降维后的数据再进行聚类就是谱聚类(Spectral Clustering)算法。


这里的拉普拉斯特征图的降维方法可以参考以下更详细的讲解:谱聚类|机器学习推导系列(二十)


四、T-distributed Stochastic Neighbor Embedding(-SNE)


  1. 上述方法的问题


在上面描述的邻域嵌入方法中存在的问题是,在重建低维空间中的表示时只考虑了让较高相似度的样本点要尽可能地接近,而没有考虑让低相似度的样本点要尽可能地远,这样会导致不同类别的样本点会集中在一起,也就是拥挤问题。下图展示了使用LLE处理MNIST和COIL-20数据集时的效果,COIL-20是一个图片数据集,里面的样本是某件物品(玩具车、杯子等)旋转不同角度拍下的照片:


QOFBNM`GK25FZF%9I9]V$}P.png

                                                LLE


可以看到不同类别的样本被挤到了一起,这就是上述问题导致的结果。


  1. t-SNE


8Y6J91G`XF{BKQ@TZ%T9VIL.png

在求解时使用梯度下降对2NIMPQTABTHY6LJ$(EZ$ICS.png微分即可。需要说明的是t-SNE是对所有的数据进行计算相似度,如果维度过高则会需要巨大的计算量,因此通常的做法是先使用PCA等方法进行降维然后再使用t-SNE继续降维,比如先使用PCA降到50维,再使用t-SNE继降到2维。


同时需要说明的是t-SNE降维后,如果一个新的数据进来,我们无法获得该数据的降维表示,因此t-SNE不适用于train-test的模式,这种方法通常用于数据的可视化。


  1. 相似度的度量

ZQP5GIVID]C7$0]7$}PAC}C.png

选用上述相似度度量也就可以避免拥挤问题,原因使用下面的图来说明。在下图中横轴表示两个样本点的距离,纵轴表示概率分布。在优化时我们会让原来的数据的概率与降维后的数据的概率相等,可见如果原来的数据中的两个样本点距离很近时,在降维后的数据中距离也会很近,而如果原来的数据中的两个样本点距离很远,则在降维后的数据中其距离会被拉伸地更远:


~1[K5WFQ1WS)VM3}PTWDB6Q.png

                                                拥挤问题


  1. 效果


下图展示了t-SNE在MNIST和COIL-20数据集上的效果:


9R6QXCG_S30`3X~(KLLUVCL.png

                                                      效果


可以看到t-SNE取得了一个比较直观的可视化效果,不同类别的样本被区分地很明显。

相关文章
|
4天前
|
机器学习/深度学习 算法 数据可视化
【从零开始学习深度学习】46. 目标检测中锚框的概念、计算方法、样本锚框标注方式及如何选取预测边界框
【从零开始学习深度学习】46. 目标检测中锚框的概念、计算方法、样本锚框标注方式及如何选取预测边界框
|
4天前
|
机器学习/深度学习 算法 PyTorch
【从零开始学习深度学习】45. Pytorch迁移学习微调方法实战:使用微调技术进行2分类图片热狗识别模型训练【含源码与数据集】
【从零开始学习深度学习】45. Pytorch迁移学习微调方法实战:使用微调技术进行2分类图片热狗识别模型训练【含源码与数据集】
|
4天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】18. Pytorch中自定义层的几种方法:nn.Module、ParameterList和ParameterDict
【从零开始学习深度学习】18. Pytorch中自定义层的几种方法:nn.Module、ParameterList和ParameterDict
|
4天前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】17. Pytorch中模型参数的访问、初始化和共享方法
【从零开始学习深度学习】17. Pytorch中模型参数的访问、初始化和共享方法
|
1月前
|
机器学习/深度学习 存储 自然语言处理
深度探索自适应学习率调整:从传统方法到深度学习优化器
【5月更文挑战第15天】 在深度学习的复杂网络结构与海量数据中,学习率作为模型训练的关键超参数,其调整策略直接影响着模型的收敛速度与最终性能。传统的学习率调整方法,如固定学习率、学习率衰减等,虽然简单易行,但在多样化的任务面前往往显得力不从心。近年来,随着自适应学习率技术的兴起,一系列创新的优化器如Adam、RMSProp和Adagrad等应运而生,它们通过引入自适应机制动态调整学习率,显著改善了模型的训练效率与泛化能力。本文将深入剖析传统学习率调整方法的原理与局限性,并详细介绍当前主流的自适应学习率优化器,最后探讨未来可能的发展方向。
|
1月前
|
机器学习/深度学习 自然语言处理 算法
深度解析深度学习中的优化算法:从梯度下降到自适应方法
【4月更文挑战第28天】 在深度学习模型训练的复杂数学迷宫中,优化算法是寻找最优权重配置的关键导航者。本文将深入探讨几种主流的优化策略,揭示它们如何引导模型收敛至损失函数的最小值。我们将比较经典的批量梯度下降(BGD)、随机梯度下降(SGD)以及动量概念的引入,进一步探索AdaGrad、RMSProp和Adam等自适应学习率方法的原理与实际应用。通过剖析这些算法的理论基础和性能表现,我们旨在为读者提供一个关于选择合适优化器的参考视角。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
|
4天前
|
机器学习/深度学习 数据采集 算法
未来研究将深入探索深度学习的应用及数据质量与安全问题
【6月更文挑战第13天】本文探讨了使用Python和机器学习预测股票价格的方法,包括数据收集与预处理(填充缺失值、处理异常值、标准化)、特征选择(技术指标、基本面指标、市场情绪)、模型选择与训练(线性回归、SVM、神经网络等)、模型评估与调优。尽管股票价格受多重因素影响,通过不断优化,可构建预测模型。未来研究将深入探索深度学习的应用及数据质量与安全问题。
23 5
|
4天前
|
机器学习/深度学习 传感器 自动驾驶
探讨深度学习在自动驾驶中的应用,以及它如何推动自动驾驶技术的发展
【6月更文挑战第13天】本文探讨了深度学习在自动驾驶汽车中的核心应用,涉及环境感知、决策规划和控制执行。深度学习通过模拟神经元工作方式处理传感器数据,如使用CNN和RNN识别图像和雷达信息。此外,它助力智能决策规划和精确控制执行。然而,数据需求、可解释性和实时性是当前挑战,可通过数据增强、规则方法、模型压缩等手段解决。随着技术发展,深度学习将进一步提升自动驾驶性能,并应对安全和隐私挑战。
16 5
|
1天前
|
机器学习/深度学习 人工智能 监控
深度学习在图像识别中的应用与未来发展
随着科技的不断进步,深度学习已成为人工智能领域的重要技术。本文探讨了深度学习在图像识别中的应用,以及未来可能的发展方向,并提供了一些实际应用案例。
8 0

热门文章

最新文章