智谱发布了 GLM-5。
随着大模型能力从“写代码”走向“做工程”,行业正由 Vibe Coding 迈向 Agentic Engineering。GLM-5 正是在这一趋势下诞生:在 Coding 与 Agent 能力上达到开源 SOTA,真实编程体验接近 Claude Opus 4.5,尤其擅长复杂系统工程与长程 Agent 任务。
在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一。
即日起,GLM-5同步开源,模型权重遵循 MIT License。
1. 开源链接
GitHub:https://github.com/zai-org/GLM-5
ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5
2. 在线体验
Z.ai:https://chat.z.ai
智谱清言APP/网页版:https://chatglm.cn
3. 官方 API 接入
BigModel 开放平台:https://docs.bigmodel.cn/cn/guide/models/text/glm-5
Z.ai:https://docs.z.ai/guides/llm/glm-5
OpenClaw 接入文档:https://docs.bigmodel.cn/cn/coding-plan/tool/openclaw
4. Agent
AutoGLM:https://autoglm.zhipuai.cn/?channel=AutoGLM_OpenClaw&redeem_modal_open=1
Z Code:https://zcode.z.ai/cn
5.Blog:https://z.ai/blog/glm-5
模型亮点
更大基座,更强智能
GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:
- 参数规模扩展:从 355B(激活 32B)扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平。
- 异步强化学习:构建全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。
- 稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency。
Coding 能力:对齐 Claude Opus 4.5
GLM-5 在编程能力上实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型 SOTA 分数,性能超过 Gemini 3 Pro。
2026 年,大模型需要从“会写”走到“会完成”,尤其是端到端完成大型任务。GLM-5 是一个“系统架构师”,它不仅为开发精美的 Demo 而生,更为稳定交付生产结果而生。
在内部 Claude Code 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7(平均增幅超过 20%),能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近 Opus 4.5。
Agent 能力:SOTA 级长程任务执行
GLM-5 在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一:在 BrowseComp(联网检索与信息理解)、MCP-Atlas(工具调用和多步骤任务执行)和 τ²-Bench(复杂多工具场景下的规划和执行)均取得最佳表现。
在衡量模型经营能力的 Vending Bench 2 中,GLM-5 获得开源模型第一的表现。Vending Bench 2 要求模型在一年期内经营一个模拟的自动售货机业务,GLM-5 最终账户余额达到 4432 美元,经营表现接近 Claude Opus 4.5,展现了出色的长期规划和资源管理能力。
这些能力是 Agentic Engineering 的核心:模型不仅要能写代码、完成工程,还要能在长程任务中保持目标一致性、进行资源管理、处理多步骤依赖关系,成为真正的 Agentic Ready 基座模型。
Agenttic Engineering 典型场景
场景一:端到端应用开发
在 OpenRouter 匿名(Pony)上线后,许多开发者使用 GLM-5 完成了真正能用、能玩、能上线的应用。
开发者们用 GLM-5 制作出了横版解谜游戏、Agent 交互世界、论文版“抖音”等应用,这些应用已开放下载,或已提交商店审核,详情可关注 GLM-5 案例库(showcase.z.ai)。这些案例展示了 GLM-5 在复杂系统工程中端到端交付可部署产品的能力。
场景二:通用 Agent 助手
GLM-5 较强的 Agentic 工具调用能力,使其成为通用 Agent 助手的理想基座模型。
在 OpenClaw 中接入 GLM-5,用户可以拥有一个智能的实习生,帮你搜索网站、定时整理资讯、发布推文、编程等。官方推出了 AutoGLM 版本的 OpenClaw,支持官网一键完成 OpenClaw 与飞书机器人的一体化配置,帮助用户从数小时缩短到几分钟,极速部署专属 7×24 小时智能助手。
场景三:Z Code 全流程编程
当 GLM-5 进化到能跑完整个闭环,编程工具也需要以此为核心重构。为此,智谱推出 Z Code。用户只需把需求说清楚,模型会自动拆解任务,多智能体并发完成代码、跑命令、调试、预览和提交等开发全流程。
在 Z Code 上,用户甚至可以用手机远程指挥桌面端 Agent,解决以往需要很久的工程任务。
值得一提的是,Z Code 也是全程由 GLM 模型参与开发完成。
场景四:办公文档直接输出
GLM-5 拥有更强大的复杂系统工程和长程智能体能力,可将文本或素材直接转换为 .docx、.pdf 和 .xlsx 文件。
在 Z.ai 和智谱清言上,用户可以让 GLM-5 直接输出产品需求文档、教案、试卷、电子表格、财务报告、流程表、菜单等文档。
本地部署使用方式
环境准备
vLLM, SGLang, and xLLM 均已经在Day0支持GLM-5的部署
- vLLM
Docker部署:
docker pull vllm/vllm-openai:nightly
或 安装vLLM依赖
pip install -U vllm --pre --index-url https://pypi.org/simple --extra-index-url https://wheels.vllm.ai/nightly
然后升级Transformers到最新版本
pip install git+https://github.com/huggingface/transformers.git
部署代码
- vLLM
VLLM_USE_MODELSCOPE=true vllm serve zai-org/GLM-5-FP8 \ --tensor-parallel-size 8 \ --gpu-memory-utilization 0.85 \ --speculative-config.method mtp \ --speculative-config.num_speculative_tokens 1 \ --tool-call-parser glm47 \ --reasoning-parser glm45 \ --enable-auto-tool-choice \ --served-model-name glm-5-fp8
- SGLang
SGLANG_USE_MODELSCOPE=true python3 -m sglang.launch_server \ --model-path zai-org/GLM-5-FP8 \ --tp-size 8 \ --tool-call-parser glm47 \ --reasoning-parser glm45 \ --speculative-algorithm EAGLE \ --speculative-num-steps 3 \ --speculative-eagle-topk 1 \ --speculative-num-draft-tokens 4 \ --mem-fraction-static 0.85 \ --served-model-name glm-5-fp8