智谱发布新一代旗舰模型 GLM-4.5,面向推理、代码与智能体的开源SOTA模型!

简介: 7月28日晚,智谱带来新一代旗舰模型——GLM-4.5!GLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air 采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求。

 01.模型介绍

7月28日晚,智谱带来新一代旗舰模型——GLM-4.5!GLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air 采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求。

GLM-4.5 和 GLM-4.5-Air 都是混合推理模型,提供两种模式:用于复杂推理和工具使用的思考模式,以及用于即时响应的非思考模式。

研究团队已开源了 GLM-4.5 和 GLM-4.5-Air 的基础模型、混合推理模型以及混合推理模型的FP8版本。它们采用MIT开源许可证发布,可用于商业用途和二次开发。

在研究团队对12项行业标准基准的全面评估中,GLM-4.5表现卓越,得分 63.2,在所有专有和开源模型中排名第3 。值得注意的是,GLM-4.5-Air在保持优异效率的同时,仍取得了 59.8 的竞争性成绩。

 

image.gif 编辑

代码:

https://github.com/zai-org/GLM-4.5

体验链接:

https://modelscope.cn/studios/ZhipuAI/GLM-4.5-Demo

02.模型下载

你可以在 ModelScope(https://modelscope.cn/studios/ZhipuAI/GLM-4.5-Demo) 上直接体验模型,也可以按照下面的链接下载模型。

模型

下载链接

模型大小

精度

GLM-4.5

🤖 ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-4.5

355B-A32B

BF16

GLM-4.5-Air

🤖 ModelScope:

https://modelscope.cn/models/ZhipuAI/GLM-4.5-Air

106B-A12B

BF16

GLM-4.5-FP8

🤖 ModelScope:

https://modelscope.cn/models/ZhipuAI/GLM-4.5-FP8

355B-A32B

FP8

GLM-4.5-Air-FP8

🤖 ModelScope:

https://modelscope.cn/models/ZhipuAI/GLM-4.5-Air-FP8

106B-A12B

FP8

GLM-4.5-Base

🤖 ModelScope:

https://modelscope.cn/models/ZhipuAI/GLM-4.5-Base

355B-A32B

BF16

GL

M-4.5-Air-Base

🤖 ModelScope:

https://modelscope.cn/models/ZhipuAI/GLM-4.5-Air-Base

106B-A12B

BF16

03.模型推理

推理推荐配置

研究团队提供了"全功能"模型推理的最低和推荐配置。下表中的数据基于以下条件:

  1. 所有模型都使用MTP层,并指定--speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4 以确保具有竞争力的推理速度。
  2. 不使用 cpu-offload 参数。
  3. 推理批处理大小不超过 8
  4. 所有操作都在原生支持FP8推理的设备上执行,确保权重和缓存都采用FP8格式。
  5. 服务器内存必须超过 1T 以确保正常的模型加载和运行。

模型可在下表配置下运行:

模型

精度

GPU类型和数量

测试框架

GLM-4.5

BF16

H100 x 16 / H200 x 8

sglang

GLM-4.5

FP8

H100 x 8 / H200 x 4

sglang

GLM-4.5-Air

BF16

H100 x 4 / H200 x 2

sglang

GLM-4.5-Air

FP8

H100 x 2 / H200 x 1

sglang

 

在下表配置下,模型可以充分利用其128K上下文长度:

模型

精度

GPU类型和数量

测试框架

GLM-4.5

BF16

H100 x 32 / H200 x 16

sglang

GLM-4.5

FP8

H100 x 16 / H200 x 8

sglang

GLM-4.5-Air

BF16

H100 x 8 / H200 x 4

sglang

GLM-4.5-Air

FP8

H100 x 4 / H200 x 2

sglang

 

vLLM

  • BF16和FP8都可以用以下代码启动(使用main分支):
vllm serve zai-org/GLM-4.5-Air \
    --tensor-parallel-size 8 \
    --tool-call-parser glm45 \
    --reasoning-parser glm45 \
    --enable-auto-tool-choice \
    --served-model-name glm-4.5-air

image.gif

如果您使用8x H100 GPU并且在运行GLM-4.5模型时遇到内存不足的问题,您需要使用--cpu-offload-gb 16(仅适用于vLLM)。

如果遇到flash infer问题,请使用VLLM_ATTENTION_BACKEND=XFORMERS作为临时替代方案。您也可以指定 TORCH_CUDA_ARCH_LIST='9.0+PTX'来使用flash infer(不同GPU有不同的TORCH_CUDA_ARCH_LIST值,请相应检查)。

 

SGLang

  • BF16
python3 -m sglang.launch_server \
  --model-path zai-org/GLM-4.5-Air \
  --tp-size 8 \
  --tool-call-parser glm45  \
  --reasoning-parser glm45 \
  --speculative-algorithm EAGLE \
  --speculative-num-steps 3 \
  --speculative-eagle-topk 1 \
  --speculative-num-draft-tokens 4 \
  --mem-fraction-static 0.7 \
  --served-model-name glm-4.5-air \
  --host 0.0.0.0 \
  --port 8000

image.gif

  • FP8
python3 -m sglang.launch_server \
  --model-path zai-org/GLM-4.5-Air-FP8 \
  --tp-size 4 \
  --tool-call-parser glm45  \
  --reasoning-parser glm45  \
  --speculative-algorithm EAGLE \
  --speculative-num-steps 3  \
  --speculative-eagle-topk 1  \
  --speculative-num-draft-tokens 4 \
  --mem-fraction-static 0.7 \
  --disable-shared-experts-fusion \
  --served-model-name glm-4.5-air-fp8 \
  --host 0.0.0.0 \
  --port 8000

image.gif

请求参数说明

  • 使用vLLMSGLang时,发送请求时默认启用思考模式。如果要禁用思考开关,需要添加 extra_body={"chat_template_kwargs": {"enable_thinking": False}}参数。
  • 两者都支持工具调用。请使用OpenAI风格的工具描述格式进行调用。
  • 具体代码请参考inference文件夹中的api_request.py

04.模型微调

我们介绍使用ms-swift集成的megatron & LoRA对GLM-4.5-Air进行思考到非思考的微调。你需要准备4卡96GiB或8卡80GiB的显卡资源。ms-swift是魔搭社区官方提供的大模型与多模态大模型训练部署框架。

 

下表为我们推荐的微调配置:

模型

GPU类型和数量

策略

批处理大小(每GPU)

GLM-4.5

H20 (96GiB) x 16

Lora

1

GLM-4.5-Air

H20 (96GiB) x 4

Lora

1

GLM-4.5

H20 (96GiB) x 128

SFT

1

GLM-4.5-Air

H20 (96GiB) x 32

SFT

1

GLM-4.5

H20 (96GiB) x 128

RL

1

GLM-4.5-Air

H20 (96GiB) x 32

RL

1

 

ms-swift开源地址:

https://github.com/modelscope/ms-swift

在开始微调之前,请确保您的环境已准备妥当。

 

对megatron相关依赖的安装可以查看megatron-swift训练文档(可直接使用镜像):https://swift.readthedocs.io/zh-cn/latest/Instruction/Megatron-SWIFT%E8%AE%AD%E7%BB%83.html

git clone https://github.com/modelscope/ms-swift.git
cd ms-swift
pip install -e .

image.gif

微调数据集准备格式如下(system字段可选),在训练脚本中指定`--dataset <dataset_path>`即可。

{"messages": [{"role": "user", "content": "浙江的省会在哪?"}, {"role": "assistant", "content": "浙江的省会在杭州。"}]}

image.gif

1、HF格式的权重转为Megatron格式,并测试转换精度:

# 4 * 80GiB
# 若要测试转换精度,请设置`--test_convert_precision true`
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift export \
    --model ZhipuAI/GLM-4.5-Air \
    --to_mcore true \
    --torch_dtype bfloat16 \
    --output_dir GLM-4.5-Air-mcore

image.gif

2、对GLM-4.5-Air-mcore进行LoRA微调。在8卡H20上所需显存资源为:4 * 95GiB。

# thinking -> non-thinking
# 4 * 95GiB
PYTORCH_CUDA_ALLOC_CONF='expandable_segments:True' \
NPROC_PER_NODE=4 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
megatron sft \
    --load GLM-4.5-Air-mcore \
    --dataset 'swift/Chinese-Qwen3-235B-2507-Distill-data-110k-SFT' \
    --train_type lora \
    --lora_rank 32 \
    --lora_alpha 64 \
    --target_modules linear_qkv linear_proj \
    --split_dataset_ratio 0.01 \
    --moe_permute_fusion true \
    --expert_model_parallel_size 4 \
    --moe_grouped_gemm true \
    --moe_shared_expert_overlap true \
    --moe_aux_loss_coeff 1e-3 \
    --micro_batch_size 1 \
    --global_batch_size 16 \
    --recompute_granularity full \
    --recompute_method uniform \
    --recompute_num_layers 1 \
    --max_epochs 2 \
    --finetune true \
    --cross_entropy_loss_fusion true \
    --lr 1e-4 \
    --lr_warmup_fraction 0.05 \
    --min_lr 1e-5 \
    --save megatron_output/GLM-4.5-Air \
    --eval_interval 200 \
    --save_interval 200 \
    --packing true \
    --max_length 8192 \
    --num_workers 8 \
    --dataset_num_proc 8 \
    --no_save_optim true \
    --no_save_rng true \
    --sequence_parallel true \
    --attention_backend flash

image.gif

 

训练显存占用:

 

image.gif 编辑

 

损失曲线:(总训练耗时:16小时)

 

image.gif 编辑

 

3、将Megatron格式权重转为HF格式,并测试转换精度:

# 4 * 80GiB
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift export \
    --mcore_adapters megatron_output/GLM-4.5-Air/vx-xxx \
    --to_hf true \
    --torch_dtype bfloat16 \
    --output_dir megatron_output/GLM-4.5-Air/vx-xxx-hf

image.gif

4、训练完成后,使用以下命令进行推理:

# 4 * 80GiB
# 或者使用main分支vllm进行推理加速
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift infer \
    --model megatron_output/GLM-4.5-Air/vx-xxx-hf \
    --stream true \
    --max_new_tokens 2048

image.gif

 

image.gif 编辑

 

5、推送模型到ModelScope:

swift export \
    --model output/vx-xxx/checkpoint-xxx \
    --push_to_hub true \
    --hub_model_id '<your-model-id>' \
    --hub_token '<your-sdk-token>'

image.gif

点击链接,即可跳转模型链接~

https://modelscope.cn/models/ZhipuAI/GLM-4.5-Base

目录
相关文章
|
8月前
|
SQL XML 缓存
控制接口RT暴降80%!CompletableFuture异步编排实战代码模板
Springboot 控制接口RT暴降80%!CompletableFuture异步编排实战代码模板
|
4月前
|
机器学习/深度学习 算法 物联网
Mcore Bridge:迈向Megatron训练"零门槛"时代
魔搭社区推出Mcore-Bridge与Megatron-SWIFT,显著降低大模型训练门槛。支持safetensors格式、一键启动、无需权重转换,兼容MoE等架构,实现高性能与易用性统一,让Megatron训练开箱即用。
867 10
|
4月前
|
人工智能 自然语言处理 语音技术
Soul App联合西工大和上交大开源语音合成模型SoulX-Podcast,已登顶Hugging Face TTS趋势榜!
Soul AI Lab联合西工大、上交大开源SoulX-Podcast,支持中英粤川等多语种方言及副语言生成,可稳定输出超60分钟自然流畅的多人对话音频,已在Huggingface登顶TTS趋势榜。
686 0
Soul App联合西工大和上交大开源语音合成模型SoulX-Podcast,已登顶Hugging Face TTS趋势榜!
|
6月前
|
自然语言处理 开发者
拿下30个第1名的腾讯混元翻译模型,开源!
腾讯混元又带来一个在国际机器翻译比赛拿下30个第1名的翻译模型Hunyuan-MT-7B,它总参数量仅7B,支持33个语种、5种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。
635 0
|
5月前
|
人工智能 测试技术 API
智谱旗舰模型GLM-4.6开源发布,代码能力对齐Claude Sonnet 4
作为GLM系列的最新版本,GLM-4.6是系列最强的代码Coding模型(较GLM-4.5提升27%)
1796 14
|
3月前
|
缓存 运维 监控
接口最大并发量测试工具对比与最佳实践方案
文章聚焦接口最大并发量测试,阐述其是保障系统稳定与性能的关键。介绍主流测试工具分SaaS化平台、开源工具和私有化部署方案,分析各方案特点、适用场景及优缺点。还给出工具选型建议,以及接口并发量测试的最佳实践流程,解答常见问题。
|
7月前
|
编解码 算法 测试技术
MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!
今天,面壁小钢炮新一代多模态模型 MiniCPM-V 4.0 正式开源。依靠 4B 参数,取得 在 OpenCompass、OCRBench、MathVista 等多个榜单上取得了同级 SOTA 成绩,且 实现了在手机上稳定、丝滑运行。此外,官方也正式开源了 推理部署工具 MiniCPM-V CookBook,帮助开发者面向不同需求、不同场景、不同设备,均可实现开箱即用的轻量、简易部署。
984 0
|
7月前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
989 0
|
6月前
|
人工智能 编解码 数据可视化
AI创作更自由: 魔搭FLowBench云端工作流上线AIGC专区!支持QwenImageEdit免费出图!
很高兴向大家宣布,ModelScope AIGC 专区的工作流功能正式上线!
1076 22

热门文章

最新文章