实时深度学习的推理加速和连续学习

简介: 在本技术分析报告的第一部分《研学社·系统组 | 实时深度学习的推理加速和持续训练》,我们介绍了最近一些用于 DNN 推理加速的硬件和算法技术。在这第二部分,我们将基于最近一篇论文《在连续学习场景中对深度神经网络进行微调(Fine-Tuning Deep Neural Networksin Continuous Learning Scenarios)》探讨 DNN 连续学习,该论文的作者为 Christoph Kading、Erik Rodner、Alexander Freytag 和 Joachim Denzler。

 

要将深度学习系统投入生产,有一个方面很重要,就是要能应对输入和输出数据的分布随时间的变化。和任何统计机器学习模型一样,深度神经网络的可行性和有效性严重取决于一个假设——输入和输出数据的分布不会随时间发生显著变化,否则会使得模型原本学习到的模式和复杂关系表现不佳或甚至完全不可用。但是,在真实世界中,这样的假设很少能够成立,尤其是在信息安全等领域,其中基础数据生成机制的快速演变已然是一种常态(在安全领域的案例中,这是因为防御方和对手这两方都要不断努力改变自己的策略以超越对方,从而利用对手未加防备的漏洞。因此,随着我们在这些领域中应用深度学习来更好解决许多曾经无法解决的问题,深度神经网络的连续学习问题也就得到了机器学习即服务(MLaaS)提供商和应用架构师的越来越大的关注——我们该怎么很好地执行连续学习,而不会损害生产质量或提高资源消耗。

 

在本报告的第二部分,我们将会形式化连续学习场景并介绍一种增量式的微调方法(incremental fine-tuning approach)。然后我们会给出有多个实证研究支持的三大重要发现。本文的目的不是全面调查和描绘连续学习的现状全景,而是为了启发更多不同专业背景的人加入到我们的讨论中,并与我们交流知识。

第二部分:连续学习

 

连续学习场景和增量式微调

 

微调(fine-tuning)原本一直是指预训练一个带有生成式目标(generative objective)的 DNN 的过程,后面跟着带有一个鉴别式目标(discriminative objective)的额外训练阶段。早期关于预训练和微调深度信念网络和深度堆叠自动编码器的研究成果全都遵循这种方法。研究者期望这种生成式训练阶段能让网络学习到数据域的良好分层表征,而鉴别式阶段则能利用这种表征,并希望它能在该表征空间中学习到一个更好的鉴别器功能。

 

最近,研究者已经在使用微调来在 ImageNet 这样的大型通用数据集上预训练复杂精细、当前最佳的 DNN 了,然后又在更小的相关数据集上对模型进行微调。这有助于缓解医疗诊断或地理探测等领域内有标签训练数据不足的问题,因为在这些领域中,获取有标签数据需要密集的劳动或成本高昂。研究者的基本假设是:在大型训练数据集上得到的相当好的结果已经使该网络接近参数空间中的局部最优了,所以即使新数据的数据量很小,也能快速将该网络引导至最优点。

 

从连续学习的观点来看,上面两种方法都是网络只接受两次训练(初始预训练和一次更新)的极端案例。连续学习的更一般形式是迭代式地训练和更新,这就带来了一个问题:应该怎样稳健又高效地执行一系列持续的更新?对于生产系统来说,稳健性是很重要的,因为一个实时系统通常不能容忍模型表现突然下降,而该系统的实时本质又必需对资源和时间的高效率利用。为此,在下面的讨论中,我们的重点关注场景是每个更新步骤仅使用少量新数据的情况(相比于原来的完全的训练数据集),但要求更新后的模型是即时可用的。

 

1.连续学习场景

 

连续学习的最一般形式是整个训练数据集都会随时间演变。但是,为了让学习可行,我们设置了一个限制,即输入域保持不变。这并不意味着输入域中的数据分布是恒定不变的——相反,我们允许多种多样的数据分布会发生变化的案例,但这些变化总是定义在同一域中。另一方面,我们假设输入域可以变化。这是为了配合当系统持续运行了相当长时间后出现新标签的案例。比起输入域变化的情况,这个假设更有可能实际出现,因为在自动驾驶汽车等大多数生产系统中,如果输入视频或激光雷达图像急剧改变(由于极端天气、光照、地形或路况),那我们就不能期望系统还能远程工作;但我们希望该系统能在连续学习过程中适应新型的不可碰撞的目标,并且能够应对这种新标签的类别。因此,我们将我们的连续学习场景中的数据定义为按时间 t 索引的数据集 微信图片_20211129105750.jpg的序列。我们的目标是为每个时间步骤 t 学习一个网络  微信图片_20211129105758.jpg根据  微信图片_20211129105802.jpg的变化方式,我们有两种可能场景:

 

1) 我们不会随时间获得新类别,但是我们的数据集不断增长。

微信图片_20211129105804.jpg



2) 我们会随时间获得新类别的样本。


微信图片_20211129105806.jpg


在每个时间步骤 t,我们需要使用新出现的可用信息更新我们的网络;这些新信息即为更新集(update set): 微信图片_20211129105811.jpg因为我们假设更新集很小,为了避免欠拟合,在时间步骤 t 我们使用上一步收敛的 热启动(warm-start)优化。这种技术的可行性取决于一个假设微信图片_20211129105814.jpg,即 微信图片_20211129105817.jpg 在数据集扩展时会平滑地改变——因此我们要假设更新步骤小且输入域恒定。在实际情况中,就算这些假设(部分地)属实,我们仍还依赖于一个预期:通过在之前一个局部最优点的初始化,带有不同参数空间情况的新优化问题可以快速且稳定地收敛到一个新的局部最优点。但是,大多数现代 DNN 都太复杂了,所以难以保证这一点——它们的目标函数是高度非线性和非凸的,有时候参数空间中还都是些糟糕的局部条件数(local condition numbers)。即便如此,热启动仍然是目前最好的方法之一,肯定比从头开始更好,而且在实验上也表现出了最好的潜力。对于场景 2,在每个时间步骤,我们都可能需要为最后的输入层添加额外的神经元以及与前一层的连接权重。

 

但还存在三个问题。一,每个更新步骤需要多少个 SGD 步骤?二,在每个更新过程中,我们使用多少前一步骤的数据,又使用多少当前步骤的数据?三,这个更新流程是否稳健,能应对标注噪声吗?对于生产系统来说,这些问题都很重要,因为正如我们前面谈到的,稳健性和效率是很重要的。


实证研究

 

在实验中,我们使用了在 ImageNet ILSVRC-2010 上预训练的 BVLC AlexNet 作为示例网络。我们将学习率固定为 0.001,L2 权重衰减固定为 0.0005,动量固定为 0.9;并且更新集的大小也固定为 微信图片_20211129105822.jpg其中的样本来自同一类别。对于评估,我们使用了 MS-COCO-full-v0.9 和 Stanford40Actions。相比 ImageNet,这两个数据集都很小,因为我们想使用比初始预训练小的更新来评估连续学习的表现。对于 MS-COCO,我们使用了 15 个类别,其中每个包含 500 到 1000 个样本;每个样本都仅保留 ground truth 边界框,且宽和高都至少是 256 像素。为了进行评估,我们随机选择了 10 个类来对 CNN 进行初始化微调。从剩余的数据中,我们再随机选择 5 个类别用作全新数据(在每个更新步骤输入的新数据),并且从每个类别随机选择了 100 个样本。每个更新步骤使用的度量都是分类准确度。为了得到无偏差的比较,我们进行了该实验 9 次。

 

1.每个更新步骤的 SGD 迭代次数

 

SGDminibatch 的大小固定为 64,但我们改变了每个更新步骤中 SGD 迭代执行的次数。我们将 SGD 迭代次数表示成了一个相对于总训练数据大小(即 epoch 数)的比例,以补偿不断增长的训练数据大小。


微信图片_20211129105825.jpg


让人惊讶的是,即使每次更新的 SGD 迭代少了很多,分类准确度依然稳健,除了那些仅使用了十分之一数据的案例,很可能是因为在这样小的 epoch 中一些类别代表不足。事实上,我们可以直接将 SGD 迭代的次数固定为一个小常量(比如更新集大小 微信图片_20211129105822.jpg,表现也不会显著下降。

 

微信图片_20211129105829.jpg


2.每个更新步骤中旧数据与新数据的比例


对于增量式的学习算法,旧数据与新数据的影响的比例是最重要的超参数之一。在 SGD 迭代中,我们根据概率 微信图片_20211129105832.jpg对每个样本 i 进行了采样,其中 0≤λ≤1。在极端情况下,λ=0 意味着之前的数据完全被忽视了,而 λ=1 则表示新数据的影响推迟到了下一个更新步骤,因为这是它们在 微信图片_20211129105836.jpg中结束的时候。


微信图片_20211129105841.jpg


我们看到,为了防止在更小的更新集上过拟合,就必需旧数据。我们观察到一个有趣的结果:因为新的更新集数据被认为是下一步骤 t 中 微信图片_20211129105836.jpg的一部分,因此 λ=0.75 和 λ=1 的表现差不多。

 

3.在有标注噪声时保持稳健

 

在生产场景中,新数据的标签很少是无噪声的——由于实时性需求,人类判断者往往需要做出快但并不准确的决定,而三到五位判断者之间的不一致率可能会高达 75%。因此,在有标注噪声时保持稳健对于连续学习方案而言至关重要。


我们使用 64 的 minibatch 大小在每个更新步骤执行了 10 epoch,并随机污染固定比例的新可用数据——用剩余类别的样本替换这些数据,但同时保持它们的标签不变。如预期一样,标注噪声会降低准确度,但我们的连续学习方案对此相对稳健,在存在 10% 的噪声时准确度仅下降了 2%。


微信图片_20211129105845.jpg


第二部分总结


在本报告的第二部分,我们了解了近来连续学习方面的研究成果,并对增量微调的有效性和稳健性进行了一些阐述。我们希望这能激励读者加入到对机器学习系统的讨论中,并与不同背景的人交流知识。


加入机器之心 ML 系统与架构小组:


近些年人工智能的突破不仅仅是机器学习算法的努力,更有包含了其所依赖的系统和架构领域的进步。如果你想更加全面的了解机器学习这个领域,对其依赖的上下游领域的了解会很有帮助。系统和架构就是这样一个下游领域。这个方向的工作极大方便了其上游算法的开发,或许你也是现在诸多 ML 系统产品的用户之一。但面对一个这样重要的跨领域的方向,你可能会感到这样一些困境:


1. 找不到合适的学习资料

2. 有学习动力,但无法坚持

3. 学习效果无法评估

4. 遇到问题缺乏讨论和解答的途径


不论你是想要获得相关跨领域的更全面大局观,还是你只是想对手中的 ML 系统工具更加了解,你都是机器之心想要帮助和挖掘的对象。基于这个方向现在越来越成为众多研究人员关注的焦点,机器之心发起了一个互助式学习小组。


因此,为了帮助「 系统与架构新手」进入这一领域,机器之心发起了一个互助式学习小组——「人工智能研学社· ML 系统与架构小组」。本小组将通过优质资料分享、教材研习、论文阅读、群组讨论、专家答疑、讲座与分享等形式加强参与系统与架构和深度学习的理解和认知。


  • 面向人群:有一定的机器学习算法基础,并且对分布式计算、并行计算等也有所了解,同时想掌握此方向最新成果的人
  • 学习形式:学习资料推荐、统一进度学习(教材或论文)、群组讨论、专家答疑、讲座等。
  • 加入方式:


1)添加机器之心小助手微信,并注明:加入系统与架构学习组

微信图片_20211129105850.jpg

2)完成小助手发送的入群测试(题目会根据每期内容变化),并提交答案,以及其他相关资料(教育背景 、从事行业和职务 、人工智能学习经历等)。

3)小助手将邀请成功通过测试的朋友进入「人工智能研学社· ML 系统与架构学习组」。


入群测试 QUIZ


1)教育背景 2)从事行业和职务 3)人工智能经历 4)人工智能系统或架构经历


1. List one or two major differences between DNN training and inference.

2. Why are GPUs widely considered the best hardware for DNN training, but not necessarily inference?


相关文章
|
1月前
|
机器学习/深度学习 数据采集 人工智能
AI赋能教育:深度学习在个性化学习系统中的应用
【10月更文挑战第26天】随着人工智能的发展,深度学习技术正逐步应用于教育领域,特别是个性化学习系统中。通过分析学生的学习数据,深度学习模型能够精准预测学生的学习表现,并为其推荐合适的学习资源和规划学习路径,从而提供更加高效、有趣和个性化的学习体验。
101 9
|
2月前
|
机器学习/深度学习 传感器 人工智能
深度学习之自主学习和任务规划
基于深度学习的自主学习和任务规划,是指通过深度学习算法使人工智能(AI)系统能够自主地从环境中学习,并根据特定的目标和任务,规划出有效的解决方案。
72 3
|
2月前
|
机器学习/深度学习 存储 自然语言处理
深度学习之少样本学习
少样本学习(Few-Shot Learning, FSL)是深度学习中的一个重要研究领域,其目标是在只有少量标注样本的情况下,训练出能够很好地泛化到新类别或新任务的模型。
41 2
|
2月前
|
机器学习/深度学习 自然语言处理 计算机视觉
深度学习中的迁移学习技术
【10月更文挑战第11天】 本文探讨了深度学习中的迁移学习技术,并深入分析了其原理、应用场景及实现方法。通过实例解析,展示了迁移学习如何有效提升模型性能和开发效率。同时,文章也讨论了迁移学习面临的挑战及其未来发展方向。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习之人类水平的语言推理
基于深度学习的人类水平的语言推理,是当前自然语言处理(NLP)和人工智能领域的重要研究方向之一。语言推理的核心在于理解语言中蕴含的复杂语义和逻辑关系,并根据上下文进行推断。
35 3
|
1月前
|
安全 搜索推荐 机器学习/深度学习
AI赋能教育:深度学习在个性化学习系统中的应用
【10月更文挑战第26天】在人工智能的推动下,个性化学习系统逐渐成为教育领域的重要趋势。深度学习作为AI的核心技术,在构建个性化学习系统中发挥关键作用。本文探讨了深度学习在个性化推荐系统、智能辅导系统和学习行为分析中的应用,并提供了代码示例,展示了如何使用Keras构建模型预测学生对课程的兴趣。尽管面临数据隐私和模型可解释性等挑战,深度学习仍有望为教育带来更个性化和高效的学习体验。
103 0
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习之复杂推理与逻辑学习
基于深度学习的复杂推理与逻辑学习是当前人工智能领域中的一个前沿研究方向,旨在结合深度学习与传统逻辑推理的优势,使机器能够在处理复杂任务时具备更强的推理能力。
36 2
|
3月前
|
机器学习/深度学习 算法 自动驾驶
深度学习之分布式智能体学习
基于深度学习的分布式智能体学习是一种针对多智能体系统的机器学习方法,旨在通过多个智能体协作、分布式决策和学习来解决复杂任务。这种方法特别适用于具有大规模数据、分散计算资源、或需要智能体彼此交互的应用场景。
176 4
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习之生物启发的学习系统
基于深度学习的生物启发学习系统(Biologically Inspired Learning Systems)旨在借鉴生物大脑的结构和学习机制,设计出更高效、更灵活的人工智能系统。
28 0
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的迁移学习技术
本文探讨了深度学习中的迁移学习技术,分析了其在提高模型训练效率和效果方面的优势。通过对迁移学习的定义、原理和应用案例的详细阐述,展示了如何有效利用预训练模型解决实际问题。
87 6