无监督学习-邻域嵌入方法|深度学习(李宏毅)(十八)

简介: 无监督学习-邻域嵌入方法|深度学习(李宏毅)(十八)

一、概述


流形学习(Manifold Learning)是指通过从高维采样数据中恢复低维流形结构,即找到高维空间中的低维流形,并求出相应的嵌入映射,以实现降维或者数据可视化。拿地球举例来说就是地球的表面可以认为是一个二维平面被塞到了三维空间中,那么欧氏距离(Euclidean Distance)就只能在短距离内成立,在较远的距离就不再成立:


GJI0{EOV])C{NO@ZP5%70XV.png

                             地球


再举一个例子,在下图中可以认为一个二维平面被扭曲放入一个三维空间中,在很小的距离内欧式举例是成立的:


Y5EE[STS3E1M(`WRS0RB_PQ.png

                        短距离


而如果距离太远的话则可能欧氏距离就不成立,如下图所示,黑点到蓝点的欧氏距离比到红点的欧氏距离更小,但是从数据分布上来看黑点和红点更加相似一些,这时欧式距离就没有意义了:


NO6ZCN(Q(46HXZ[KF`L{9HG.png

                   远距离


对于上面的例子,流形学习要做的就是学习数据在低维空间的表示形式,通俗来说,就是将上图中的数据“展开”:

M}H76H8HX[UFE_(NX~FBXNL.png

                       数据


这样的数据显然更容易用来进行聚类或者其他的监督学习方法。接下来的部分介绍几种流形学习的方法。


二、Locally Linear Embedding(LLE)


Locally Linear Embedding(LLE)是一种非线性降维算法,可以使降维后的数据保持比较好的原有的流形结构。


}}EB8X)XL40RXHR~WW(R`)I.png                                                     原数据


$2FX6]}J7B6RBQV4H$2%${7.png                                                降维后的数据


]4CT4KE88QUP[])RER71TPD.png

在使用LLE进行降维时,选择邻域内的几个点是一个可以调整的超参数,选用过少或过多的点效果都不会太好,选择过多邻居的局限性在于这样会考虑进一些距离较远的点,而欧氏距离在远距离的效果不太好。下图展示了不同数量的邻近点的效果:


W}[%@LOT41)0]RRQ2IG}40M.png

                                                效果


三、Laplacian Eigenmaps


  1. 简介


拉普拉斯特征映射(Laplacian Eigenmaps)是一种基于图的降维算法,依赖于平滑性假设(Smoothness Assumption),其希望降维后的点(图中有边相连的点)在降维后的空间中能够相互接近,从而保持其原有的数据结构。


  1. 图的构建


具体地,假定在高维空间中有下图的数据点,则两个红色数据点之间的距离使用欧氏距离来度量的话是没有意义的,数据点之间在流形中的距离才可以表明其相似的程度。


ZJB0OOAL~M~E7$D{B(PB7XQ.png

                                      数据


使用拉普拉斯特征映射的方法首先需要构建一张图,构建的方法就是将相似度高的点之间连一条边,可以设置一个阈值,每个点与其相似度达到阈值的点之间连接一条边,边的权重就是相似度,也可以将每个点与固定P)H{]TA18$W(SRNEP6M1JN6.png个最相似的点连接起来。相似度可以采用径向基函数或者余弦相似度等等。

B@P1_K{Y~(WAFBT631DLUWH.png

得到的图如下:


@Y5FM4DX(LGT){IJY7I7X5S.png

                                         图


两个数据点在流形中的距离可以用图中的距离来近似:


}AQ~GJZO]2W@UN$34$Y52%Q.png

                                    距离


  1. 类比半监督学习


参考以下链接中平滑性假设基于图的方法这一部分:半监督学习|深度学习(李宏毅)(九)

在半监督学习平滑性假设基于图的方法中,通过给损失函数添加一个正则化~GI6R~@FM22RFG[N]0K9T74.png项可以利用无标签数据进行半监督学习,~GI6R~@FM22RFG[N]0K9T74.png用来评估标签的相关性,这个正则化项为:

 WYIR%PJOMNDQ8NG23_8WLN7.png

                                           图的度矩阵


JPHJD%`%F(S6WD@0U%{UXHC.png


  1. Laplacian Eigenmaps

2A3$[VMM~2V2272T)$M{%SS.png


2A3$[VMM~2V2272T)$M{%SS.png

I_4~C%KV[G6HLSIYJ$$43YV.png

对降维后的数据再进行聚类就是谱聚类(Spectral Clustering)算法。


这里的拉普拉斯特征图的降维方法可以参考以下更详细的讲解:谱聚类|机器学习推导系列(二十)


四、T-distributed Stochastic Neighbor Embedding(-SNE)


  1. 上述方法的问题


在上面描述的邻域嵌入方法中存在的问题是,在重建低维空间中的表示时只考虑了让较高相似度的样本点要尽可能地接近,而没有考虑让低相似度的样本点要尽可能地远,这样会导致不同类别的样本点会集中在一起,也就是拥挤问题。下图展示了使用LLE处理MNIST和COIL-20数据集时的效果,COIL-20是一个图片数据集,里面的样本是某件物品(玩具车、杯子等)旋转不同角度拍下的照片:


QOFBNM`GK25FZF%9I9]V$}P.png

                                                LLE


可以看到不同类别的样本被挤到了一起,这就是上述问题导致的结果。


  1. t-SNE


8Y6J91G`XF{BKQ@TZ%T9VIL.png

在求解时使用梯度下降对2NIMPQTABTHY6LJ$(EZ$ICS.png微分即可。需要说明的是t-SNE是对所有的数据进行计算相似度,如果维度过高则会需要巨大的计算量,因此通常的做法是先使用PCA等方法进行降维然后再使用t-SNE继续降维,比如先使用PCA降到50维,再使用t-SNE继降到2维。


同时需要说明的是t-SNE降维后,如果一个新的数据进来,我们无法获得该数据的降维表示,因此t-SNE不适用于train-test的模式,这种方法通常用于数据的可视化。


  1. 相似度的度量

ZQP5GIVID]C7$0]7$}PAC}C.png

选用上述相似度度量也就可以避免拥挤问题,原因使用下面的图来说明。在下图中横轴表示两个样本点的距离,纵轴表示概率分布。在优化时我们会让原来的数据的概率与降维后的数据的概率相等,可见如果原来的数据中的两个样本点距离很近时,在降维后的数据中距离也会很近,而如果原来的数据中的两个样本点距离很远,则在降维后的数据中其距离会被拉伸地更远:


~1[K5WFQ1WS)VM3}PTWDB6Q.png

                                                拥挤问题


  1. 效果


下图展示了t-SNE在MNIST和COIL-20数据集上的效果:


9R6QXCG_S30`3X~(KLLUVCL.png

                                                      效果


可以看到t-SNE取得了一个比较直观的可视化效果,不同类别的样本被区分地很明显。

相关文章
|
6月前
|
机器学习/深度学习 数据可视化 网络架构
增强深度学习模型的可解释性和泛化能力的方法研究
【8月更文第15天】在深度学习领域,模型的准确率和预测能力是衡量模型好坏的重要指标。然而,随着模型复杂度的增加,它们往往变得越来越难以理解,这限制了模型在某些关键领域的应用,例如医疗诊断、金融风险评估等。本文将探讨如何通过几种方法来增强深度学习模型的可解释性,同时保持或提高模型的泛化能力。
837 2
|
4月前
|
机器学习/深度学习 调度 计算机视觉
深度学习中的学习率调度:循环学习率、SGDR、1cycle 等方法介绍及实践策略研究
本文探讨了多种学习率调度策略在神经网络训练中的应用,强调了选择合适学习率的重要性。文章介绍了阶梯式衰减、余弦退火、循环学习率等策略,并分析了它们在不同实验设置下的表现。研究表明,循环学习率和SGDR等策略在提高模型性能和加快训练速度方面表现出色,而REX调度则在不同预算条件下表现稳定。这些策略为深度学习实践者提供了实用的指导。
127 2
深度学习中的学习率调度:循环学习率、SGDR、1cycle 等方法介绍及实践策略研究
|
4月前
|
机器学习/深度学习 监控 数据可视化
深度学习中实验、观察与思考的方法与技巧
在深度学习中,实验、观察与思考是理解和改进模型性能的关键环节。
77 5
|
5月前
|
机器学习/深度学习 存储 人工智能
深度学习中的模型压缩技术在人工智能领域,深度学习技术的迅猛发展带来了巨大的计算资源需求。为了解决这一问题,模型压缩技术应运而生。本文将介绍什么是模型压缩、常见的模型压缩方法以及其在实际应用中的意义。
随着深度学习技术的广泛应用,计算资源的需求也大幅增加。为减少资源消耗,提升模型效率,模型压缩技术成为研究热点。本文探讨了模型压缩的定义、主流方法和其重要性。通过量化、剪枝、知识蒸馏和轻量级架构等策略,模型得以在保持性能的同时减小体积,从而适用于资源受限的环境。这些技术不仅降低了计算成本,还推动了深度学习在移动设备和边缘计算等领域的应用,使AI技术更加普及和实用。总之,模型压缩在平衡模型性能与资源消耗之间发挥着关键作用,是未来AI发展的重要方向。
|
5月前
|
机器学习/深度学习
数百万晶体数据训练、解决晶体学相位问题,深度学习方法PhAI登Science
【9月更文挑战第5天】近期,《科学》杂志报道了一项名为PhAI的深度学习技术,在晶体学相位问题上取得重要突破。相位问题旨在确定晶体中分子或原子的位置与方向,对理解其物理化学特性至关重要。PhAI通过数百万晶体数据训练,能高效准确地解决这一难题,有望大幅提升研究效率,加速新材料和药物的设计。但其准确性及对未知结构处理能力仍面临挑战。论文详情参见:https://www.science.org/doi/10.1126/science.adn2777。
69 1
|
5月前
|
机器学习/深度学习 PyTorch TensorFlow
Python实现深度学习学习率指数衰减的方法与参数介绍
学习率指数衰减提供了一种高效的动态调整学习率的手段,帮助模型在不同训练阶段以不同的学习速度优化,有利于提升模型性能和训练效率。通过合理设置衰减策略中的参数,可以有效地控制学习率的衰减过程,实现更加精确的模型训练调优。
119 0
|
5月前
|
机器学习/深度学习 算法
深度学习中的自编码器:探索无监督学习的秘密
在深度学习的浩瀚海洋中,自编码器犹如一座神秘的灯塔,指引着无监督学习的方向。本文将带你航行于自编码器的构造与原理之间,探索它们如何通过编码输入数据、重构输出来捕捉数据的内在特征。我们将一起见证自编码器在降维、去噪、生成模型等方面的应用奇迹,并思考其在深度学习未来中的角色与挑战。准备好了吗?让我们启航,揭开自编码器的神秘面纱。
89 0
|
26天前
|
机器学习/深度学习 运维 安全
深度学习在安全事件检测中的应用:守护数字世界的利器
深度学习在安全事件检测中的应用:守护数字世界的利器
73 22
|
2月前
|
机器学习/深度学习 传感器 数据采集
深度学习在故障检测中的应用:从理论到实践
深度学习在故障检测中的应用:从理论到实践
206 6
|
5天前
|
机器学习/深度学习 人工智能 运维
深度学习在流量监控中的革命性应用
深度学习在流量监控中的革命性应用
69 40

热门文章

最新文章