next-token被淘汰!Meta实测多token训练方法,推理提速3倍,性能大涨10%+

简介: 【6月更文挑战第11天】Meta AI的最新研究表明,多token训练方法能提升大型语言模型的性能和推理速度。与传统next-token预测相比,该方法让模型预测多个未来token,增强上下文理解和生成能力。实验显示,这种方法在代码生成、摘要生成和数学问题解答等任务上性能提升10%+,推理速度提升至原来的3倍,为模型部署提供了更优选择。论文链接:https://arxiv.org/pdf/2404.19737

Meta AI 的最新研究提出了一种多 token 训练方法,有望改变大型语言模型的训练方式。这项研究的论文题为《Better & Faster Large Language Models via Multi-token Prediction》,发表在 arXiv 上,并引起了广泛的关注。

在自然语言处理领域,大型语言模型(如 GPT 和 Llama)的训练通常基于 next-token 预测损失。这意味着模型在训练过程中会学习预测下一个 token(可以是单词或字符)的概率分布。然而,这种方式在处理多 token 序列时可能存在一些局限性。

为了解决这些局限性,Meta 的研究团队提出了一种多 token 训练方法。与传统的 next-token 预测不同,这种新方法要求模型在每个位置预测多个未来的 token。具体来说,在训练过程中,模型需要使用 n 个独立的输出头,在共享的模型主干上同时预测接下来的 n 个 token。

这种多 token 预测方法可以被视为一种辅助训练任务。通过在训练过程中同时预测多个未来的 token,模型可以学习到更长远的上下文信息,从而提高其生成和理解文本的能力。

为了验证这种多 token 训练方法的有效性,Meta 的研究团队进行了一系列的实验。他们发现,使用多 token 预测方法训练的大型语言模型在多个下游任务上都表现出了显著的性能提升。

在代码生成任务上,使用多 token 预测方法训练的模型在 HumanEval 和 MBPP 等基准测试上的性能分别提高了 12% 和 17%。此外,使用多 token 预测方法训练的模型在处理更长的字节序列时也表现出了更好的性能,这对于处理源代码等具有复杂语法结构的任务尤其重要。

在自然语言处理任务上,使用多 token 预测方法训练的模型在摘要生成和数学问题解答等任务上也表现出了更好的性能。特别是在摘要生成任务上,使用多 token 预测方法训练的模型在 ROUGE-L F1 分数上比使用 next-token 预测方法训练的模型提高了 2% 到 4%。

除了性能提升外,Meta 的研究团队还发现,使用多 token 预测方法训练的模型在推理速度上也得到了显著的提升。他们发现,使用 4-token 预测方法训练的模型在推理速度上可以提高 3 倍,即使对于较大的批处理规模也是如此。

这对于实际应用场景中的模型部署具有重要意义。在许多应用中,模型的推理速度是决定其可用性的关键因素之一。通过使用多 token 预测方法,可以显著提高模型的推理速度,从而提高其在实际应用中的可用性。

论文链接:https://arxiv.org/pdf/2404.19737

目录
相关文章
|
3天前
|
机器学习/深度学习 人工智能 并行计算
DeepSpeed Chat: 一键式RLHF训练,让你的类ChatGPT千亿大模型提速省钱15倍
DeepSpeed Chat 是一款革命性的平台,专为简化和加速类ChatGPT模型的训练而设计。通过一键式脚本,用户可以轻松完成从预训练模型到生成自定义ChatGPT模型的全过程。该系统复刻了InstructGPT的RLHF训练方法,并集成了一系列优化技术,如DeepSpeed Hybrid Engine,大幅提升了训练效率和经济性。使用DeepSpeed Chat,即使是拥有数千亿参数的大模型,也能在短时间内完成训练,且成本显著降低。无论是单GPU还是多GPU集群环境,DeepSpeed Chat都能提供卓越的性能和易用性,让RLHF训练变得更加普及。
DeepSpeed Chat: 一键式RLHF训练,让你的类ChatGPT千亿大模型提速省钱15倍
|
2月前
|
数据采集 人工智能 算法
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
【8月更文挑战第31天】近日,谷歌发布了一项名为多模态对比学习联合示例选择(JEST)的研究成果,旨在优化大模型预训练过程中的数据筛选。JEST通过联合选择数据批次而非独立选择示例,利用多模态对比目标揭示数据间的依赖关系,提高了学习效率。实验表明,JEST能显著加速训练并降低计算成本,最多减少13倍迭代次数和10倍计算量。这一成果有望推动大模型预训练更加高效和经济。论文详情见:https://arxiv.org/abs/2406.17711。
37 2
|
3月前
|
异构计算 索引
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
【7月更文挑战第24天】针对大语言模型(LLM)处理长上下文时的计算瓶颈,微软推出MInference,基于动态稀疏注意力加速预填充,使8B参数模型处理1M token从30分钟降至3分钟,推理延迟降低10倍。通过识别注意力矩阵模式(A形、斜线、块稀疏),仅计算关键权重,无需修改预训练或微调。实验证明,MInference在多个任务和模型上保持准确度,但可能不适用所有LLM类型,存在轻微性能损失风险。
112 17
|
3月前
|
机器学习/深度学习 计算机视觉
字节豆包全新图像Tokenizer:生成图像最低只需32个token,最高提速410倍
【7月更文挑战第1天】新方法将图像转为1D token序列,减少计算复杂度,提高生成效率。在保持高画质(如gFID: 1.97 on ImageNet 256x256)的同时,TiTok比现有模型快410倍。虽有资源需求及token限制问题,但展示了图像处理的新方向。[论文链接](https://arxiv.org/abs/2406.07550)
114 7
|
5月前
|
人工智能 安全 测试技术
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
【2月更文挑战第18天】Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
69 3
Infection-2.5登场,训练计算量仅40%、性能直逼GPT-4!
|
机器学习/深度学习 编解码 算法
30%Token就能实现SOTA性能,华为诺亚轻量目标检测器Focus-DETR效率倍增
30%Token就能实现SOTA性能,华为诺亚轻量目标检测器Focus-DETR效率倍增
420 0
|
缓存 算法 PyTorch
比标准Attention提速5-9倍,大模型都在用的FlashAttention v2来了
比标准Attention提速5-9倍,大模型都在用的FlashAttention v2来了
367 0
|
存储 机器学习/深度学习 人工智能
不堆参数、不靠时长,Meta加速ViT训练流程,吞吐量4倍提升
不堆参数、不靠时长,Meta加速ViT训练流程,吞吐量4倍提升
230 0
|
机器学习/深度学习 人工智能 自然语言处理
一日一卡挑战:RTX2080Ti搞定大模型训练,算力节省136倍,学界欢呼
一日一卡挑战:RTX2080Ti搞定大模型训练,算力节省136倍,学界欢呼
400 0
|
存储 机器学习/深度学习 自然语言处理
彻底解决ChatGPT健忘症!突破Transformer输入限制:实测支持200万个有效token
彻底解决ChatGPT健忘症!突破Transformer输入限制:实测支持200万个有效token
803 0