MoH:融合混合专家机制的高效多头注意力模型及其在视觉语言任务中的应用

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: 本文提出了一种名为混合头注意力(MoH)的新架构,旨在提高Transformer模型中注意力机制的效率。MoH通过动态注意力头路由机制,使每个token能够自适应选择合适的注意力头,从而在减少激活头数量的同时保持或提升模型性能。实验结果显示,MoH在图像分类、类条件图像生成和大语言模型等多个任务中均表现出色,尤其在减少计算资源消耗方面有显著优势。

在深度学习领域,多头注意力机制一直是Transformer模型的核心组成部分,在自然语言处理和计算机视觉任务中取得了巨大成功。然而,研究表明并非所有的注意力头都具有同等重要性,许多注意力头可以在不影响模型精度的情况下被剪枝。基于这一洞察,这篇论文提出了一种名为混合头注意力(Mixture-of-Head attention, MoH)的新架构,旨在提高注意力机制的效率,同时保持或超越先前的准确性水平。

研究的主要目的包括:

1、提出一种动态注意力头路由机制,使每个token能够自适应地选择适当的注意力头。

2、在不增加参数数量的情况下,提高模型性能和推理效率。

3、验证MoH在各种流行的模型框架中的有效性,包括Vision Transformers (ViT)、Diffusion models with Transformers (DiT)和Large Language Models (LLMs)。

4、探索将预训练的多头注意力模型(如LLaMA3-8B)继续调优为MoH模型的可能性。

方法改进

MoH的核心思想

MoH的核心思想是将注意力头视为混合专家机制(Mixture-of-Experts, MoE)中的专家。具体来说,MoH由以下部分组成:

多个注意力头: H = {H1, H2, ..., Hh},一个路由器: 激活Top-K个头,MoH的输出是K个选定头的输出的加权和:

其中gi表示路由分数,只有当第i个注意力头被激活时,gi才非零。

主要改进如下

共享头:

指定一部分头为始终保持激活的共享头。

在共享头中巩固共同知识,减少其他动态路由头之间的冗余。

两阶段路由:

路由分数由每个单独头的分数和与头类型相关的分数共同决定。公式如下:

其中hs表示共享头的数量,Ws和Wr分别表示共享头和路由头的投影矩阵。

负载平衡损失:

为避免不平衡负载,应用了负载平衡损失。公式如下:

总训练目标:

总训练损失是任务特定损失和负载平衡损失的加权和:

 L = Ltask + β * Lb

其中β是权衡超参数,默认设置为0.01。

MoH的优势

使每个token能够选择最相关的注意力头,提高推理效率。通过加权求和替代标准求和,增加了注意力机制的灵活性。无需增加参数数量即可提高模型性能。

实验设置

作者在多个流行的模型框架上评估了MoH的性能:

ViT用于图像分类:

在ImageNet-1K数据集上进行训练和评估。使用AdamW优化器,学习率为1e-3,权重衰减为0.05。训练300个epoch,使用余弦学习率调度器。

DiT用于类条件图像生成:

在ImageNet-1K数据集上进行256×256分辨率的类条件图像生成。使用AdamW优化器,固定学习率为1e-4,无权重衰减。使用指数移动平均(EMA)权重,衰减率为0.9999。

从头训练LLMs:

使用Megatron作为训练框架。在RedPajama、Dolma和Pile等公开数据集上进行训练。使用AdamW优化器,批量大小为400万个token,序列长度为2048。

继续调优LLaMA3-8B:

分两个阶段进行:

使用300B个token继续调优原始LLaMA3-8B模型。使用100B个token将调优后的模型转换为MoH模型。

使用AdamW优化器,批量大小为1600万个token,序列长度为8192。

实验结果

ViT图像分类结果

在ImageNet-1K分类基准测试中:

MoH-ViT-B在仅激活75%的注意力头的情况下,达到了84.9%的Top-1准确率。相比之下,基准模型TransNeXt在激活100%的头的情况下,准确率为84.8%。

MoH-ViT模型在减少激活的注意力头数量的同时,仍能保持或略微提升性能。即使在仅激活50%头的情况下,MoH-ViT-B的性能仍与使用全部头的TransNeXt-B相当。MoH方法在不同规模的模型中都表现出良好的适应性。

DiT类条件图像生成结果

在ImageNet-1K 256×256分辨率的类条件图像生成任务中:

MoH-DiT模型在激活90%的注意力头的情况下,持续优于原始DiT模型。然而,当仅激活75%的注意力头时,MoH-DiT模型的表现略逊于激活100%注意力头的DiT模型。

注:FID(Fréchet Inception Distance)越低越好,IS(Inception Score)越高越好。

这些结果揭示了以下几点:

在小型模型(DiT-S/2)中,MoH-DiT在激活90%头的情况下能够略微提升性能。对于大型模型(DiT-XL/2),MoH-DiT在各项指标上都显示出明显的优势。作者认为,图像生成任务对注意力头的依赖似乎比图像分类任务更强,这可能是由于需要捕捉更细粒度的像素级关系。

从头训练LLMs的结果

在多个语言任务基准测试中:

MoH-LLM-S在仅激活50%的注意力头的情况下,达到了45.4%的平均准确率。相比之下,基线模型在激活100%的注意力头的情况下,平均准确率为43.9%。

这表明MoH在大语言模型训练中也能有效提高性能和效率。

MoH-LLM在大多数任务中都能够在减少激活头数的同时保持或提升性能。在某些任务(如SciQ和TruthfulQA)上,MoH-LLM显示出明显的优势。对于较小的模型(LLM-S),激活50%的头似乎比激活75%的头效果更好,这可能是由于起到了一定的正则化作用。

继续调优LLaMA3-8B的结果

在14个基准测试中:

MoH-LLaMA3-8B在仅使用75%的注意力头的情况下,达到了64.0%的平均准确率。这比原始LLaMA3-8B模型高出2.4个百分点。

这一结果证明,预训练的多头注意力模型可以成功地继续调优为MoH模型,大大提高了MoH方法的适用性。

MoH-LLaMA3-8B在大多数任务上都超越了原始LLaMA3-8B模型,特别是在CEVAL、CMMLU和TruthfulQA等任务上表现突出。在某些任务(如PIQA和NQ)上,MoH-LLaMA3-8B的性能略有下降,这可能是由于这些任务对特定类型的知识更为敏感。

总体而言,MoH-LLaMA3-8B在仅使用75%注意力头的情况下,平均性能提升了2.4个百分点,这是一个显著的改进。

MoH-LLaMA3-8B在继续调优过程中的性能演变

消融实验

作者进行了一系列消融实验,以评估MoH中各个组件的重要性:

这些结果表明:

共享头机制显著提升了模型性能,可能是因为它有效捕捉了常见知识。两阶段路由进一步微调了性能,提供了更灵活的注意力分配策略。

作者还探讨了共享头比例对性能的影响:

这表明模型性能在较广范围的共享头比例下保持稳定,为实际应用提供了灵活性。

最后作者对MoH模型中注意力头的使用情况进行了深入分析。如图3所示,不同类别和任务主题的注意力头分配存在显著差异。

这表明:

MoH模型能够根据不同的任务类型自适应地分配注意力资源。某些头可能专门处理特定类型的信息或特征。这种动态分配机制使得参数利用效率高于标准的多头注意力。

讨论与未来方向

MoH与MoA的比较

作者指出了MoH与之前提出的Mixture-of-Attention (MoA) 方法的几个关键区别:

动机不同:MoH旨在提高注意力机制的效率和性能,而不增加参数数量。MoA则更类似于MoE,目标是在保持推理成本低的同时扩展模型参数。

方法学差异

MoH引入了共享头和两阶段路由来增强标准MoE方法。MoH证明了预训练的多头注意力模型可以继续调优为MoH模型,大大提高了其适用性。MoA直接将多头注意力与MoE结合,并且由于采用共享键和值,必须从头训练。

应用范围:MoH在多个模型框架(ViT、DiT、仅解码器LLMs)和任务上进行了验证,而MoA仅在编码器-解码器架构的语言任务上进行了验证。

局限性与未来工作

  1. 异构注意力头:探索在MoH框架中使用不同隐藏大小的注意力头。
  2. 更低的激活率:目前MoH使用50%~90%的注意力头就能超越多头注意力。未来工作可以尝试进一步降低激活率。
  3. 多模态输入:研究MoH在处理不同模态输入(如视觉和文本)时的注意力模式。
  4. 更多下游任务:在更广泛的任务中评估MoH的性能,如音频处理和多模态任务。
  5. 更大规模模型:将MoH扩展到参数量超过8B的更大模型中。

总结

MoH作为多头注意力的改进版本,在多个任务和模型框架中展现出了卓越的性能和效率。通过引入动态路由机制、共享头和两阶段路由等创新,MoH能够在减少激活头数的同时保持或提升模型性能。特别是MoH能够成功地应用于预训练模型的继续调优,这大大增强了其实用性。

作者认为MoH为开发更先进和高效的基于注意力的模型奠定了坚实的基础,有望在学术研究和工业应用中产生深远影响。未来的工作将进一步探索MoH的潜力,包括在更多样化的任务、更大规模的模型和多模态场景中的应用。

https://avoid.overfit.cn/post/41a8250d1e4c420cafb23ecfb07b073d

目录
相关文章
|
10天前
|
监控
SMoA: 基于稀疏混合架构的大语言模型协同优化框架
通过引入稀疏化和角色多样性,SMoA为大语言模型多代理系统的发展开辟了新的方向。
25 6
SMoA: 基于稀疏混合架构的大语言模型协同优化框架
|
4月前
|
自然语言处理 搜索推荐 机器人
大模型技术的应用
【7月更文挑战第27天】大模型技术的应用
91 5
|
1月前
|
机器学习/深度学习 算法 语音技术
超越传统模型:探讨门控循环单元(GRU)在语音识别领域的最新进展与挑战
【10月更文挑战第7天】随着人工智能技术的不断进步,语音识别已经从一个相对小众的研究领域发展成为日常生活中的常见技术。无论是智能手机上的语音助手,还是智能家居设备,甚至是自动字幕生成系统,都离不开高质量的语音识别技术的支持。在众多用于语音识别的技术中,基于深度学习的方法尤其是递归神经网络(RNNs)及其变体如长短期记忆网络(LSTMs)和门控循环单元(GRUs)已经成为了研究和应用的热点。
42 2
|
4月前
|
测试技术 计算机视觉 网络架构
【YOLOv8改进 - 特征融合】CARAFE:轻量级新型上采样算子,助力细节提升
【YOLOv8改进 - 特征融合】CARAFE:轻量级新型上采样算子,助力细节提升
|
5月前
|
机器学习/深度学习 语音技术
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再压缩
【6月更文挑战第12天】谷歌DeepMind的Zipper架构解决了多模态大模型灵活性问题,通过分解为单模态模型并用“压缩”过程组合,实现多模态生成。该方法允许独立训练每个模态,提升灵活性和可扩展性,适用于数据有限或领域特定的模态。Zipper利用交叉注意力机制融合模态输出,适用于图像描述、语音识别等任务。尽管需要更多计算资源且性能受限于单模态模型质量,但已在ASR和TTS领域展现潜力。论文链接:https://arxiv.org/pdf/2405.18669
65 3
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的注意力机制:技术洞察与应用前景
在人工智能的浪潮下,深度学习技术以其强大的数据处理和模式识别能力引领着技术发展的前沿。特别是注意力机制的引入,它模仿人类视觉注意力的选择性聚焦,极大地提高了模型处理序列数据的效率和准确度。本文将深入解析注意力机制的原理,探讨其在自然语言处理、计算机视觉等领域的应用,并预测未来的发展趋势。通过严谨的逻辑推理和丰富的数据支撑,我们旨在展现注意力机制如何成为深度学习领域的重要创新点。
|
6月前
|
机器学习/深度学习 数据可视化 计算机视觉
【YOLOv8改进】MCA:用于图像识别的深度卷积神经网络中的多维协作注意力 (论文笔记+引入代码)
YOLO目标检测专栏介绍了YOLO的创新改进和实战案例,包括多维协作注意力(MCA)机制,它通过三分支架构同时处理通道、高度和宽度注意力,提高CNN性能。MCA设计了自适应组合和门控机制,增强特征表示,且保持轻量化。该模块适用于各种CNN,实验证明其在图像识别任务上的优越性。此外,文章还展示了如何在YOLOv8中引入MCA层的代码实现和相关任务配置。
|
11月前
|
机器学习/深度学习 运维 自然语言处理
揭示堆叠自动编码器的强大功能 - 最新深度学习技术
揭示堆叠自动编码器的强大功能 - 最新深度学习技术
92 0
|
机器学习/深度学习 人工智能 PyTorch
卷麻了 | DAE-Former:高效双重注意力引导的Transformer网络称霸医学图像分割任务
卷麻了 | DAE-Former:高效双重注意力引导的Transformer网络称霸医学图像分割任务
888 0
卷麻了 | DAE-Former:高效双重注意力引导的Transformer网络称霸医学图像分割任务
|
机器学习/深度学习 缓存 自然语言处理
更加灵活、经济、高效的训练——新一代搜推广稀疏大模型训练范式GBA
近日,阿里巴巴在国际顶级机器学习会议NeurIPS 2022上发表了新的自研训练模式 Gloabl Batch gradients Aggregation (GBA,论文链接:https://arxiv.org/abs/2205.11048),由阿里妈妈事业部搜索广告团队和智能引擎事业部XDL训练引擎团队联合探索和研发。GBA的提出对阿里巴巴搜推广稀疏模型的训练范式带来了架构性的跨越式升级。本文将从GBA的设计思路、收敛性分析及工程实现等方面展开介绍,欢迎阅读交流。
更加灵活、经济、高效的训练——新一代搜推广稀疏大模型训练范式GBA