今天,GLM-4.7-Flash正式发布并开源。
GLM-4.7-Flash是一个混合思考模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化部署提供了一个兼顾性能与效率的新选择。
即日起,GLM-4.7-Flash将替代GLM-4.5-Flash,在智谱开放平台http://BigModel.cn上线,并供免费调用。
模型开源:
https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash
小而强
在SWE-bench Verified、τ²-Bench等主流基准测试中,GLM-4.7-Flash的综合表现超过gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得开源SOTA分数。
在内部的编程实测中,GLM-4.7-Flash在前、后端任务上表现出色。在编程场景之外,也推荐大家在中文写作、翻译、长文本、情感/角色扮演等通用场景中体验GLM-4.7-Flash。
开始使用
- 体验中心:
https://bigmodel.cn/trialcenter/modeltrial/text?modelCode=glm-4.7-flash - 使用指南:
https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash - 接口文档:
https://docs.bigmodel.cn/api-reference/模型-api/对话补全
上一代免费语言模型GLM-4.5-Flash将于2026年1月30日下线,请及时将模型编码更新为最新版本。GLM-4.5-Flash正式下线后,相关请求将会自动路由至GLM-4.7-Flash。
点击即可跳转模型链接: