苹果发布高效双EMA梯度优化方法,适配Transformer、Mamba模型

简介: 苹果公司在arXiv上发布论文《The AdEMAMix Optimizer: Better, Faster, Older》,提出了一种基于双指数移动平均(EMA)的新型优化器AdEMAMix。该优化器通过使用快速和慢速EMA,同时利用近期和远期梯度信息,显著提升了模型训练的速度和效果。实验表明,AdEMAMix在语言建模和图像分类等任务上表现出色,尤其在大型语言模型的训练中,相比传统优化器如AdamW,训练效率提高了95%。

在机器学习领域,优化器的选择对于模型的训练效果和效率至关重要。苹果公司最近在arXiv上发表了一篇名为《The AdEMAMix Optimizer: Better, Faster, Older》的论文,提出了一种名为AdEMAMix的新型优化器,该优化器基于双指数移动平均(EMA)的梯度优化方法,旨在提高模型训练的速度和效果。

在传统的优化器中,如Adam和AdamW,通常使用单一的EMA来累积过去的梯度。EMA是一种加权平均方法,它会根据时间的推移,以指数形式衰减旧梯度的贡献。这种设计基于梯度是局部线性近似的假设,即随着迭代的进行,旧梯度的相关性会逐渐降低。然而,苹果的研究人员发现,这种单一EMA的方法存在一定的局限性。

首先,单一EMA无法同时给予近期梯度和远期梯度足够的权重。近期梯度对于模型的当前状态更为相关,而远期梯度则可能包含一些长期的趋势信息。如果只关注近期梯度,可能会忽略这些有用的信息;而如果给予远期梯度过多的权重,又可能会引入过多的噪声。

其次,传统的优化器在处理大规模数据集和复杂模型时,可能会面临收敛速度慢和模型遗忘的问题。收敛速度慢意味着模型需要更长的时间才能达到最佳状态,而模型遗忘则是指模型在训练过程中逐渐忘记了之前学到的知识。

为了解决这些问题,苹果的研究人员提出了AdEMAMix优化器。该优化器的核心思想是使用两个不同的EMA来累积过去的梯度,以更好地利用这些信息。具体来说,AdEMAMix使用一个快速EMA和一个慢速EMA。快速EMA给予近期梯度更高的权重,以捕捉模型的当前状态;而慢速EMA则给予远期梯度一定的权重,以保留长期的趋势信息。

通过这种设计,AdEMAMix能够同时利用近期和远期梯度的信息,从而提高模型的训练效果和效率。在实验中,研究人员发现,AdEMAMix在语言建模和图像分类等任务上表现出了显著的优势。例如,一个使用AdEMAMix优化器训练的1.3B参数的大型语言模型(LLM),在使用101B个标记的数据集上,其性能与使用AdamW优化器训练的相同模型在使用197B个标记的数据集上的性能相当,这相当于提高了95%的训练效率。

AdEMAMix优化器的优势主要体现在以下几个方面:

1.提高训练效率:通过同时利用近期和远期梯度的信息,AdEMAMix能够加快模型的收敛速度,从而提高训练效率。
2.改善模型性能:AdEMAMix能够帮助模型找到更优的解,从而提高模型的性能。在实验中,研究人员发现,使用AdEMAMix优化器训练的模型往往能够达到更低的损失值。
3.减少模型遗忘:AdEMAMix能够减缓模型在训练过程中的遗忘速度,从而保留更多的知识。

然而,AdEMAMix优化器也面临一些挑战。首先,如何选择合适的EMA参数(如衰减率)是一个关键问题。不同的任务和数据集可能需要不同的参数设置,这需要进行大量的实验和调优。其次,AdEMAMix优化器的计算复杂度相对较高,因为它需要同时维护两个EMA。这可能会增加模型训练的时间和资源消耗。

尽管AdEMAMix优化器已经取得了显著的成果,但苹果的研究人员认为,这只是利用过去梯度信息的开始。他们建议,未来的研究可以探索更多不同类型的函数来利用过去梯度的信息,而不仅仅是局限于EMA。此外,如何将AdEMAMix优化器与其他优化技术(如自适应学习率调整)相结合,以进一步提高模型的训练效果和效率,也是一个值得研究的方向。

论文地址:https://arxiv.org/abs/2409.03137

目录
相关文章
|
SQL 分布式计算 Hadoop
Hive使用Impala组件查询(1)
Hive使用Impala组件查询(1)
966 0
|
2月前
|
人工智能 自然语言处理 算法
GEO优化不踩坑:不同规模企业的服务商选择与落地干货
AI搜索崛起,GEO成流量新风口。企业需根据规模与行业精准选择服务商:大企业重全球布局与合规,选即搜AI、Moz;中小微求性价比与速效,边鱼科技、Ahrefs更适配。结合实操案例与签约避坑指南,助力品牌高效抢占AI推荐红利,实现线索与订单双增长。(238字)
|
数据采集 PyTorch 算法框架/工具
sam模型迁移昇腾训练loss不收敛问题的解决办法
在将SAM模型迁移到昇腾平台时,遇到了精度问题。具体表现为NPU训练的loss图从一开始就未收敛,而GPU则正常收敛。通过使用Ascend开源仓的msprobe工具进行精度对比,发现NPU丢失了image_embedding的梯度,原因在于torch_npu版本与PyTorch不匹配,导致`repeat_interleave_backward_tensor`函数调用失败。最终通过选择与PyTorch配套的torch_npu版本解决了问题,loss图恢复正常。
|
12月前
|
机器学习/深度学习 编解码 自然语言处理
王炸组合,阶跃星辰SOTA模型Step-Video和Step-Audio模型开源
2025 年 2 月 18 号,阶跃星辰宣布开源了两款 Step 系列多模态模型——Step-Video-T2V 视频生成模型和 Step-Audio 语音交互模型。
961 0
|
12月前
|
数据采集 存储 数据可视化
Pandas高级数据处理:数据报告生成
Pandas 是数据分析领域不可或缺的工具,支持多种文件格式的数据读取与写入、数据清洗、筛选与过滤。本文从基础到高级,介绍如何使用 Pandas 进行数据处理,并解决常见问题和报错,如数据类型不一致、时间格式解析错误、内存不足等。最后,通过数据汇总、可视化和报告导出,生成专业的数据报告,帮助你在实际工作中更加高效地处理数据。
355 8
|
机器学习/深度学习
RT-DETR改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
RT-DETR改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
554 2
RT-DETR改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
666 0
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
|
存储 分布式计算 Hadoop
MPP 架构与 Hadoop 架构技术选型指南
MPP架构与Hadoop架构是处理海量数据的两大选择。MPP通过大规模并行处理实现快速查询响应,适用于企业级数据仓库和OLAP应用;Hadoop则以分布式存储和计算为核心,擅长处理非结构化数据和大数据分析。两者各有优劣,MPP适合结构化数据和高性能需求场景,而Hadoop在扩展性和容错性上表现更佳。选择时需综合考虑业务需求、预算和技术能力。
1449 14
|
边缘计算 人工智能 搜索推荐
大数据与零售业:精准营销的实践
【10月更文挑战第31天】在信息化社会,大数据技术正成为推动零售业革新的重要驱动力。本文探讨了大数据在零售业中的应用,包括客户细分、个性化推荐、动态定价、营销自动化、预测性分析、忠诚度管理和社交网络洞察等方面,通过实际案例展示了大数据如何帮助商家洞悉消费者行为,优化决策,实现精准营销。同时,文章也讨论了大数据面临的挑战和未来展望。
1057 3
|
Linux 数据库
在Linux中,什么是冷备份和热备份?
在Linux中,什么是冷备份和热备份?