使用大规模无监督学习建立高层特征

简介: 翻译:《Building High-level Features Using Large Scale Unsupervised Learning》

使用大规模无监督学习建立高层特征

摘要

我们从未标记的数据中建立高层的分类明确的特征的检测器。比如说,可不可以从一些未标记的图片中学习人脸识别呢?为了回答这个问题,我们训练了一个稀疏的自编码器在大量的图片集合上(这个模型大概有一亿个连接,数据集包括了一千万个200x200的像素图片)。我们使用并行模型和异步SGD训练了三天这个网络。和公认的猜测相反的是,我们的实验得出用大量无标记的图像也能训练出一个脸部识别器的结论。控制实验显示这个特征显示器很稳健,不仅对平移,也对旋转。我们也发现这个网络对其他的高层概念比如说猫脸或人的身体也一样敏感。从这些特征开始,我们训练我们的网络来识别22000个分类,并且取得了70%的提升。

介绍

我们的工作重心是建立一个高层-分类明确的特征检测器,用来检测无标记图片。我们想要知道能不能从未标记图片上建立一个人脸识别器。这个方法的灵感来源于神经科学的一个推测:人脑中存在分类明确的神经元。这个推测还有待考察,但是目前的实验性证据表示一些位于脑皮层的神经元是被选择用来进行分类的,比如说脸,手,甚至是人类。

计算机视觉的方法强调了标记数据在获得分类明确的特征检测器中的重要性。比如,为了建立一个人脸识别器,一个人需要大量的包含了人脸的图片,经常表现在围绕人脸的一个方块。这种需求为我们的问题带来了挑战。虽然大家都更喜欢不需要标记的数据,但是它们在建立高层图像时很难表现的很好。

这个工作探究了从未标记数据中建立高层特征的可行性。从实际角度看,这为从未标记的图像提取体征提供了一个廉价方法,但是更重要的是,它是一个研究“grandmother neuron“能不能从未标记数据中学习的问题。非正式地,这个将会至少原则上证明人类幼儿学会分类脸部是因为它们见了太多脸而不是因为它们被通过监督和补偿进行指导。

非监督特征学习和深度学习早就用来从未标记数据中建立特征。使用未标记的数据来学习特征是self-taught learning 框架的关键。成功的特征学习算法和他们的应用能够在很多文献中找到。目前为止,很多这些算法都只在学习低层特征比如边缘检测器上取得成功。我们工作的主题就是捕获更复杂的特征。

最近的工作显示,最近的主流是训练深度学习算法来生成先进的结果。我们推测过长的训练时间是高层特征没有被记录的一个因素。

我们解决这个问题通过提升训练深度网络的核:数据集,模型,计算资源。首先,我们使用了一个从youtube上随机采用生成的大数据集。我们的输入数据是200x200的图像,比平常的32x32的图像都要大。我们的方法,一个包括池化和局部对比度归一化的深度自编码器,使用大的计算机堆来匹配大图片。我们使用局部感受野。这个方法减少了机器之间的连接损耗,因此允许模型并行(参数按机器分布)。异步SGD被用来支持数据并行。这个模型是分布式的方法在1000个机器中训练了三天。实验结果表明它确实能从未标记数据中建立高层特征。特别的事,使用一个包含了脸部和干扰项的hold-out测试,我们发现脸部有个特征被高度选择。这个结果也被优化过的可视化证明。控制实验显示检测器不仅能检测出平移也能测出旋转和缩放。相似的实验证明网络也能学习猫脸和人的身体的概念。

使用这些特征,我们在Imagenet上的识别获得了极大的提升。对于22000个分类,我们实现了15.8%的准确性,并且提升了70%。随机猜测的准确性要少0.005%。

方法

一个训练集由来源于10000个youtube视频的取样组成。为了防止重复,每个视频只提供一张图像,每个样例都是200x200的彩色图像。

我们的算法能被当作一个有三个重要部分组成的稀疏的深度自编码器:局部感受野,池化和局部对比归一化。首先,使得一个自编码器能适用大图片,我们使用一个被称为局部感受野的简单方法。这个方法表示自编码器中的每一帧都能被连接到一个低层中的小区域。接下来,为了实现局部变形的不变性,我们使用了局部l2池化和局部对比归一化。L2池化允许学习刚性特征。

我们的深度自编码器由复制三次由局部filtering和局部池化和局部对比归一化组成的阶段。这个阶段的输出是作为下一阶段的输入,并且总体模型能用九层的网络表示。第一和第二个下降层经常被称为filtering(取样)和池化。第三个下降层被用来作局部消减和分裂归一化。

我们的方法的核心是使用神经元之间的局部连接。在我们的实验中,第一个下降层有18x18像素的接收空间并且第二个下降池有5x5的相互重叠的特征。在第一层的神经元同输入的所有像素相连,第二层的神经元只和一个通道的像素相连。当第一层输出线性滤波响应,池化层输出输入的平方和的平方根,因此,被称为L2池化。虽然我们使用局部感受野,它们并不卷积:这个参数并没有被图片的不同地方分享。除此之外,为了更加可行,不分享权重允许学习更多。

从scale的层面上来看,我们的网络是目前所知的最大的网络之一。他有十亿个参数要训练。值得一提的是,我们的工作同人脑相比仍然非常小。

这个模型使用大概1000个机器平行训练,细节在下面描述。

实验

在这个部分,我们首先关注分析脸部识别的表达。

这个测试集包括了来自两个数据集的37000个图像样本。这里有13026张未标记的脸部采样,其余的都是随机取样的干扰项。这些图片等大小都被重新调整来适应顶部神经元的可视区域。

训练后,我们使用这个测集来检测每个神经元在识别脸部和干扰项时的表现。对每个神经元,我没发现它的最大最小激活值,然后找到二十个相同的空间下限。准确性是二十个中的最优的分类准确性。

神经网络中最好的神经元在识别脸部时表现的很好,即使没有监督信号。他也达到了81.7%的准确性。在测试集中有13026个脸,所以猜测只达到了64.8%。一层网络中的最优神经元只能实现71%的准确性,随机从训练集中选取100000filter的样本,只达到了74%。

我们也使用两个可视化的方法来验证神经元的最佳刺激是不是一个脸。第一个方法是可视化测试中反映最激烈的刺激。因为测试集很大,这个方法能有效的检测。第二个方法是用数值最优化来找到最佳刺激。我们能找到一个最大化输出y的一个有界的输入x。

在我们的实验中,这个优化问题被通过线性搜索的梯度下降算法解决。

这个网络也学习了别的高层概念。相似的可视化显示能也能学习猫脸和人体和其他概念。

接下来我们将这个特征学习方法用来测试。使用一个已经用上述方法学习过的网络,我们接下来在网络的最高层增加一对所有的逻辑分类器。这个通过非监督学习初始化一个网络的方法,被称为非监督预处理。在使用标记图像的监督学习中,低层的参数和逻辑分类器的参数一起被调整。这是通过首先调整逻辑分类器然后调整整个网络来实现的。在控制实验中,我们也能用随机权重来训练一个网络(没有使用非监督预处理:所有的参数都被随机初始并且只被标记的数据调整)。

我们将数据随机分成两组,一组用来训练一组用来验证。我们记录验证组的表现,并且比较。分组不同,验证组表现也不同。

这个结果显示我们的方法相当好。在有10000个分类的Imagenet中,我们的方法实现了15%的提升。在22k分类中,实现了70%的提升。

相关文章
|
4月前
|
机器学习/深度学习 自然语言处理
像生物网络一样生长,具备结构可塑性的自组织神经网络来了
【7月更文挑战第24天】Sebastian Risi团队发布的arXiv论文探讨了一种模仿生物神经网络生长与适应特性的新型神经网络。LNDP利用结构可塑性和经验依赖学习,能根据活动与奖励动态调整连接,展现自我组织能力。通过基于图变换器的机制,LNDP支持突触动态增删,预先通过可学习随机过程驱动网络发育。实验在Cartpole等任务中验证了LNDP的有效性,尤其在需快速适应的场景下。然而,LNDP在复杂环境下的可扩展性及训练优化仍面临挑战,且其在大规模网络和图像分类等领域的应用尚待探索
88 20
|
6月前
|
机器学习/深度学习 人工智能 算法
社交网络分析4(上):社交网络链路预测分析、Logistic回归模型、LLSLP方法(LightGBM 堆叠链路预测)、正则化方法、多重共线性
社交网络分析4(上):社交网络链路预测分析、Logistic回归模型、LLSLP方法(LightGBM 堆叠链路预测)、正则化方法、多重共线性
497 0
社交网络分析4(上):社交网络链路预测分析、Logistic回归模型、LLSLP方法(LightGBM 堆叠链路预测)、正则化方法、多重共线性
|
6月前
|
机器学习/深度学习 数据采集 分布式计算
社交网络分析4(下):社交网络链路预测分析、LightGBM框架、LLSLP方法(LightGBM 堆叠链路预测)、堆叠泛化 、社交网络链路预测分析的挑战
社交网络分析4(下):社交网络链路预测分析、LightGBM框架、LLSLP方法(LightGBM 堆叠链路预测)、堆叠泛化 、社交网络链路预测分析的挑战
368 0
|
6月前
|
存储 机器学习/深度学习 人工智能
论文介绍:InfLLM——揭示大型语言模型在无需训练的情况下处理极长序列的内在能力
【5月更文挑战第18天】InfLLM是一种新方法,无需额外训练即可增强大型语言模型处理极长序列的能力。通过使用记忆单元存储长序列的远距离上下文,InfLLM能更准确地捕捉长距离依赖,提高对长文本理解。实验表明,InfLLM使预训练在短序列上的模型在处理极长序列时表现媲美甚至超过专门训练的模型。尽管有挑战,如动态上下文分割和记忆单元效率,InfLLM为长序列处理提供了有效且未经训练的解决方案。论文链接:https://arxiv.org/abs/2402.04617
154 3
|
6月前
|
计算机视觉
模型落地必备 | 南开大学提出CrossKD蒸馏方法,同时兼顾特征和预测级别的信息
模型落地必备 | 南开大学提出CrossKD蒸馏方法,同时兼顾特征和预测级别的信息
161 0
|
机器学习/深度学习 存储 算法
如何利用Transformer建立时间序列预测模型
如何利用Transformer建立时间序列预测模型
1533 0
如何利用Transformer建立时间序列预测模型
|
算法 数据挖掘 计算机视觉
在对比学习中引入显式跨图像相似度建模能力,中南大学显著提高无监督表征的泛化能力(2)
在对比学习中引入显式跨图像相似度建模能力,中南大学显著提高无监督表征的泛化能力
152 0
|
机器学习/深度学习 算法 计算机视觉
在对比学习中引入显式跨图像相似度建模能力,中南大学显著提高无监督表征的泛化能力(1)
在对比学习中引入显式跨图像相似度建模能力,中南大学显著提高无监督表征的泛化能力
159 0
|
机器学习/深度学习 算法
理解并统一14种归因算法,让神经网络具有可解释性(2)
理解并统一14种归因算法,让神经网络具有可解释性
187 0
|
机器学习/深度学习 人工智能 算法
理解并统一14种归因算法,让神经网络具有可解释性(1)
理解并统一14种归因算法,让神经网络具有可解释性
202 0