next-token被淘汰!Meta实测多token训练方法,推理提速3倍,性能大涨10%+

简介: 【6月更文挑战第11天】Meta AI的最新研究表明,多token训练方法能提升大型语言模型的性能和推理速度。与传统next-token预测相比,该方法让模型预测多个未来token,增强上下文理解和生成能力。实验显示,这种方法在代码生成、摘要生成和数学问题解答等任务上性能提升10%+,推理速度提升至原来的3倍,为模型部署提供了更优选择。论文链接:https://arxiv.org/pdf/2404.19737

Meta AI 的最新研究提出了一种多 token 训练方法,有望改变大型语言模型的训练方式。这项研究的论文题为《Better & Faster Large Language Models via Multi-token Prediction》,发表在 arXiv 上,并引起了广泛的关注。

在自然语言处理领域,大型语言模型(如 GPT 和 Llama)的训练通常基于 next-token 预测损失。这意味着模型在训练过程中会学习预测下一个 token(可以是单词或字符)的概率分布。然而,这种方式在处理多 token 序列时可能存在一些局限性。

为了解决这些局限性,Meta 的研究团队提出了一种多 token 训练方法。与传统的 next-token 预测不同,这种新方法要求模型在每个位置预测多个未来的 token。具体来说,在训练过程中,模型需要使用 n 个独立的输出头,在共享的模型主干上同时预测接下来的 n 个 token。

这种多 token 预测方法可以被视为一种辅助训练任务。通过在训练过程中同时预测多个未来的 token,模型可以学习到更长远的上下文信息,从而提高其生成和理解文本的能力。

为了验证这种多 token 训练方法的有效性,Meta 的研究团队进行了一系列的实验。他们发现,使用多 token 预测方法训练的大型语言模型在多个下游任务上都表现出了显著的性能提升。

在代码生成任务上,使用多 token 预测方法训练的模型在 HumanEval 和 MBPP 等基准测试上的性能分别提高了 12% 和 17%。此外,使用多 token 预测方法训练的模型在处理更长的字节序列时也表现出了更好的性能,这对于处理源代码等具有复杂语法结构的任务尤其重要。

在自然语言处理任务上,使用多 token 预测方法训练的模型在摘要生成和数学问题解答等任务上也表现出了更好的性能。特别是在摘要生成任务上,使用多 token 预测方法训练的模型在 ROUGE-L F1 分数上比使用 next-token 预测方法训练的模型提高了 2% 到 4%。

除了性能提升外,Meta 的研究团队还发现,使用多 token 预测方法训练的模型在推理速度上也得到了显著的提升。他们发现,使用 4-token 预测方法训练的模型在推理速度上可以提高 3 倍,即使对于较大的批处理规模也是如此。

这对于实际应用场景中的模型部署具有重要意义。在许多应用中,模型的推理速度是决定其可用性的关键因素之一。通过使用多 token 预测方法,可以显著提高模型的推理速度,从而提高其在实际应用中的可用性。

论文链接:https://arxiv.org/pdf/2404.19737

目录
打赏
0
1
1
1
396
分享
相关文章
VeRA: 性能相当,但参数却比LoRA少10倍
2022年的LoRA提高了微调效率,它在模型的顶部添加低秩(即小)张量进行微调。模型的参数被冻结。只有添加的张量的参数是可训练的。
115 0
TokenSwift:90分钟生成10万Token!文本生成提速3倍,无损加速黑科技
TokenSwift 是北京通用人工智能研究院团队推出的超长文本生成加速框架,能在90分钟内生成10万Token的文本,速度提升3倍,生成质量无损,支持多种模型架构。
77 16
TokenSwift:90分钟生成10万Token!文本生成提速3倍,无损加速黑科技
COMET:字节跳动开源MoE训练加速神器,单层1.96倍性能提升,节省百万GPU小时
COMET是字节跳动推出的针对Mixture-of-Experts(MoE)模型的优化系统,通过细粒度的计算-通信重叠技术,显著提升分布式训练效率,支持多种并行策略和大规模集群部署。
83 9
Moonlight-16B-A3B:月之暗面开源MoE模型,160亿参数仅需激活30亿,训练成本直接减半!Muon优化器效率2倍于AdamW
Moonlight-16B-A3B 是 Moonshot AI 推出的 MoE 模型,拥有 160 亿参数,激活参数仅 30 亿,使用优化的 Muon 优化器,计算效率提升 2 倍,适合大规模分布式训练。
107 3
压缩大型语言模型(LLMs):缩小10倍、性能保持不变
尽管大规模语言模型(LLMs)在多种应用场景中表现出色,但其庞大的规模也带来了实际部署难题。本文探讨了通过模型压缩技术解决这些问题的方法,介绍了量化、剪枝和知识蒸馏三种主要压缩技术,并通过具体Python代码示例展示了如何将一个100M参数的文本分类模型压缩至52.8M参数,再通过4位量化进一步减小至原来的1/7,同时保持甚至提升性能。示例代码展示了从数据预处理、模型训练到评估的完整流程,证明了压缩技术的有效性。
305 6
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
【7月更文挑战第24天】针对大语言模型(LLM)处理长上下文时的计算瓶颈,微软推出MInference,基于动态稀疏注意力加速预填充,使8B参数模型处理1M token从30分钟降至3分钟,推理延迟降低10倍。通过识别注意力矩阵模式(A形、斜线、块稀疏),仅计算关键权重,无需修改预训练或微调。实验证明,MInference在多个任务和模型上保持准确度,但可能不适用所有LLM类型,存在轻微性能损失风险。
321 17
字节豆包全新图像Tokenizer:生成图像最低只需32个token,最高提速410倍
【7月更文挑战第1天】新方法将图像转为1D token序列,减少计算复杂度,提高生成效率。在保持高画质(如gFID: 1.97 on ImageNet 256x256)的同时,TiTok比现有模型快410倍。虽有资源需求及token限制问题,但展示了图像处理的新方向。[论文链接](https://arxiv.org/abs/2406.07550)
330 7
|
11月前
|
推测解码:在不降低准确性的情况下将LLM推理速度提高2 - 3倍
在本篇文章我们将详细讨论推测解码,这是一种可以将LLM推理速度提高约2 - 3倍而不降低任何准确性的方法。我们还将会介绍推测解码代码实现,并看看它与原始transformer 实现相比到底能快多少。
365 10
极大降低大模型训练内存需求,Meta等推出高效方法
【2月更文挑战第27天】极大降低大模型训练内存需求,Meta等推出高效方法
126 2
极大降低大模型训练内存需求,Meta等推出高效方法
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
【2月更文挑战第18天】Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
94 3
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等