Kimi开源Moonlight-16B-A3B:基于Muon优化器的高效大模型,性能与效率双突破!

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 最近,Muon优化器在训练小规模语言模型方面展示了强大的效果,但其在大规模模型上的可扩展性尚未得到验证。

01.前言

最近,Muon优化器在训练小规模语言模型方面展示了强大的效果,但其在大规模模型上的可扩展性尚未得到验证。Kimi确定了两种扩展Muon的关键技术:

权重衰减:对划分更大模型至关重要

一致的RMS更新:在模型更新中保持一致的均方根

这些技术使Muon能够在大规模训练中开箱即用,消耗超参数调优。扩展调整实验表明,在计算最优化训练中,Muon因而通常默认使用的AdamW优化器,能够提供高约2倍的样本效率。

基于这些改进,Kimi基于Muon训练了Moonlight-16B-A3B系列模型。这是一个配备16B参数(激活参数为3B)的专家混合(MoE)模型,使用5.7T个token数据训练得到。该模型模型改进了当前累的帕托前沿,与的模型相比,使用更少的训练FLOPs可以在之前实现更好的性能。

同时Kimi开源了内存优化和通信效率高的Muon实现,还发布了预训练、配置配置和中间检查点,以支持未来的研究。

所有代码可在MoonshotAI/Moonlight获取。

代码链接:

https://github.com/MoonshotAI/Moonlight

模型链接:

  • 月光-16B-A3B

   https://modelscope.cn/models/moonshotai/Moonlight-16B-A3B

  • 月光-16B-A3B-说明

   https://modelscope.cn/models/moonshotai/Moonlight-16B-A3B-Instruct

体验链接:

https://www.modelscope.cn/studios/moonshotai/Moonlight-16B-Demo/summ ary

技术贡献包括:

  • Muon有效可扩展分析:通过广泛分析,研究发现权重衰减在Muon的可扩展性中发挥了关键作用。此外,研究团队提出通过参数级更新尺度调整团队,在不同的矩阵和非矩阵参数之间保持一致的更新均方根(RMS)。这些调整显着提高了稳定性。
  • 高效多元化实现:研究团队开发了具有ZeRO-1风格优化的Muon多元化版本,实现了最优的内存效率和减少的通信开销,同时保持了算法的数学特性。
  • 扩展动作验证:研究团队进行了扩展动作研究,将Muon与强大的AdamW核心进行比较,展示了Muon的卓越性能(图1)。基于扩展动作结果,Muon只需要约52%的训练FLOPs就能达到与AdamW的对应模型相当的性能。

image.png

Muon的扩展

(a) 比较Muon和Adam的扩展动作实验,Muon的样本效率是Adam的2倍;

(b) Moonlight模型(使用Muon优化)与其他可比较模型在MMLU上的表现。

Moonlight在性能与训练FLOPs的权衡上推进了帕累托前沿。

02.特性

将Moonlight与类似规模的SOTA公开模型进行了比较:

  • LLAMA3-3B是一个使用9T个令牌训练的3B参数密集模型
  • Qwen2.5-3B是一个使用18T个代币训练的3B参数密集模型
  • Deepseek-v2-Lite是一个使用5.7T代币训练的2.4B/16B参数MOE模型

基准测试(指标)

骆驼3.2-3B

Qwen2.5-3B

DSV2-Lite

月光

啟動參數 †

2.81亿

2.77亿

2.24B

2.24B

一般参数†

2.81亿

2.77亿

15.29B

15.29B

训练token数

9T

18T

5.7T

5.7T

优化器

亚当·W

*

亚当·W

介子

英语

莫尔登大学

54.75

65.6

58.3

70.0

MMLU-pro

25.0

34.6

25.5

42.4

百比黑

46.8

56.3

44.1

65.2

琐事QA‡

59.6

51.1

65.1

66.3

代碼

人力评估

28.0

42.1

29.9

48.1

马来西亚公共服务局

48.7

57.1

43.2

63.8

数学

GSM8K

34.0

79.1

41.1

77.4

数学

8.5

42.6

17.1

45.3

数学

-

80.0

58.4

81.1

English 中文

C-评估

-

75.0

60.3

77.2

加拿大蒙特利尔大学

-

75.0

64.3

78.2

03.模型推理

思考代码

from modelscope import AutoModelForCausalLM, AutoTokenizer
model_name = "moonshotai/Moonlight-16B-A3B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto",
    trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
prompt = "1+1=2, 1+2="
inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True).to(model.device)
generated_ids = model.generate(**inputs, max_new_tokens=100)
response = tokenizer.batch_decode(generated_ids)[0]
print(response)

显存消耗:

image.png

04.Muon优化器微调

ms-swift第一时间提供了Muon优化器的对接。ms-swift是魔搭社区提供的,大模型训练部署框架,其开源地址为:https://github.com/modelscope/ms-swift

目前moonshotai/Moonlight-16B-A3B系列MoE模型不再支持进一步的扭矩(由于topk_method='noaux_tc'),我们选择使用由Moonshot改进的muon优化器,来实现密集模型的动作。具体而言,在以下示例中,我们采用了Qwen2.5-7B-Instruct,来验证通过swift进行基于Muon优化器的扭矩训练。

在开始之前,请确保您的环境已准备就绪。

# pip install git+https://github.com/modelscope/ms-swift.git
git clone https://github.com/modelscope/ms-swift.git
cd ms-swift
pip install -e .

微脚本如下:

# 17GB
# ref: https://github.com/MoonshotAI/Moonlight/blob/master/examples/toy_train.py
CUDA_VISIBLE_DEVICES=0 \
swift sft \
    --model Qwen/Qwen2.5-7B-Instruct \
    --train_type lora \
    --dataset 'AI-ModelScope/alpaca-gpt4-data-zh#500' \
              'AI-ModelScope/alpaca-gpt4-data-en#500' \
              'swift/self-cognition#500' \
    --optimizer muon \
    --torch_dtype bfloat16 \
    --num_train_epochs 1 \
    --per_device_train_batch_size 1 \
    --per_device_eval_batch_size 1 \
    --learning_rate 1e-4 \
    --lora_rank 8 \
    --lora_alpha 32 \
    --target_modules all-linear \
    --gradient_accumulation_steps 16 \
    --eval_steps 50 \
    --save_steps 50 \
    --save_total_limit 5 \
    --logging_steps 5 \
    --max_length 2048 \
    --output_dir output \
    --system 'You are a helpful assistant.' \
    --warmup_ratio 0.05 \
    --dataloader_num_workers 4 \
    --model_author swift \
    --model_name swift-robot

活动显存消耗:

image.png

如果要使用自定义数据集进行训练,可以参考以下格式,并指定`--dataset <dataset_path>`。

{"messages": [{"role": "user", "content": "浙江的省会在哪?"}, {"role": "assistant", "content": "浙江的省会在杭州。"}]}
{"messages": [{"role": "system", "content": "你是个有用无害的数学计算器"}, {"role": "user", "content": "1+1等于几"}, {"role": "assistant", "content": "等于2"}, {"role": "user", "content": "再加1呢"}, {"role": "assistant", "content": "等于3"}]}

训练完成后,使用以下命令对训练后的权重进行推理:

提示:这里的`--adapters`需要替换生成训练生成的最后一个检查点文件夹。由于adapters文件夹中包含了训练的参数文件`args.json`,因此不需要额外指定`--model`,swift会自动读取这些参数。如果要关闭此行为,可以设置`--load_args false`。

CUDA_VISIBLE_DEVICES=0 \
swift infer \
    --adapters output/vx-xxx/checkpoint-xxx \
    --stream true \
    --temperature 0

训练效果:

image.png

扔模型到ModelScope:

CUDA_VISIBLE_DEVICES=0 \
swift export \
    --adapters output/vx-xxx/checkpoint-xxx \
    --push_to_hub true \
    --hub_model_id '<your-model-id>' \
    --hub_token '<your-sdk-token>'

点击链接体验~

https://www.modelscope.cn/studios/moonshotai/Moonlight-16B-Demo/summary

目录
相关文章
|
2月前
|
算法 测试技术 Swift
Kimi开源Moonlight-16B-A3B:基于Muon优化器的高效大模型,性能与训练效率双突破!
Kimi开源Moonlight-16B-A3B:基于Muon优化器的高效大模型,性能与训练效率双突破!
|
2月前
|
人工智能 自然语言处理 测试技术
Moonlight-16B-A3B:月之暗面开源MoE模型,160亿参数仅需激活30亿,训练成本直接减半!Muon优化器效率2倍于AdamW
Moonlight-16B-A3B 是 Moonshot AI 推出的 MoE 模型,拥有 160 亿参数,激活参数仅 30 亿,使用优化的 Muon 优化器,计算效率提升 2 倍,适合大规模分布式训练。
120 3
|
8月前
|
分布式计算 关系型数据库 数据处理
深度揭秘:ADB之外的数据库战场,Planner与ORCA优化器,谁才是性能提升的幕后推手?
【8月更文挑战第27天】在数据库和Android调试领域,优化器如Planner与ORCA扮演着提升性能的关键角色。Planner作为传统数据库的核心,以成熟稳定、高度集成及易于扩展著称,适用于大多数查询优化场景。ORCA则凭借其模块化设计、高并发性和基于成本的优化策略,在处理复杂查询和大规模数据集时展现出色性能。尽管ADB本身不包含这些优化器,但其调试理念与优化器的设计理念相辅相成,共同推动技术进步。例如,在使用ORCA的数据库中,一个涉及多表连接的复杂查询可以被自动优化,通过评估不同连接策略的成本来选择最佳执行计划。这两种优化器各有所长,共同促进数据处理技术的发展。
106 0
|
5月前
|
机器学习/深度学习 算法 开发者
探索深度学习中的优化器选择对模型性能的影响
在深度学习领域,优化器的选择对于模型训练的效果具有决定性作用。本文通过对比分析不同优化器的工作原理及其在实际应用中的表现,探讨了如何根据具体任务选择合适的优化器以提高模型性能。文章首先概述了几种常见的优化算法,包括梯度下降法、随机梯度下降法(SGD)、动量法、AdaGrad、RMSProp和Adam等;然后,通过实验验证了这些优化器在不同数据集上训练神经网络时的效率与准确性差异;最后,提出了一些基于经验的规则帮助开发者更好地做出选择。
|
8月前
|
存储 机器学习/深度学习 算法
Adam-mini:内存占用减半,性能更优的深度学习优化器
论文提出一种新的优化器Adam-mini,在不牺牲性能的情况下减少Adam优化器的内存占用。
318 10
Adam-mini:内存占用减半,性能更优的深度学习优化器
|
8月前
|
缓存 Java Spring
Spring缓存实践指南:从入门到精通的全方位攻略!
【8月更文挑战第31天】在现代Web应用开发中,性能优化至关重要。Spring框架提供的缓存机制可以帮助开发者轻松实现数据缓存,提升应用响应速度并减少服务器负载。通过简单的配置和注解,如`@Cacheable`、`@CachePut`和`@CacheEvict`,可以将缓存功能无缝集成到Spring应用中。例如,在配置文件中启用缓存支持并通过`@Cacheable`注解标记方法即可实现缓存。此外,合理设计缓存策略也很重要,需考虑数据变动频率及缓存大小等因素。总之,Spring缓存机制为提升应用性能提供了一种简便快捷的方式。
94 0
|
9月前
|
机器学习/深度学习 自然语言处理 算法
ICML 2024:零阶优化器微调大模型,大幅降低内存
【7月更文挑战第14天】ICML 2024研究表明,零阶优化用于大模型微调能大幅降低内存需求。该论文通过避免反向传播,减少LLM(大型语言模型)微调的内存开销,提出新方法,适用于资源受限环境。虽然性能可能不及一阶优化器,但为高效NLP计算开辟了新途径。论文链接:[arxiv.org/abs/2402.11592](https://arxiv.org/abs/2402.11592)**
190 3
|
缓存 关系型数据库 MySQL
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理*(四)
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理*(四)
507 0
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理*(四)
|
SQL 缓存 自然语言处理
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理(三)
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理(三)
538 0
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理(三)
|
SQL 缓存 监控
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理(二)
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理(二)
227 0
MYSQL性能调优04_连接器、查询缓存、分析器、优化器、执行器、一图详解MYSQL底层工作原理(二)

热门文章

最新文章