智谱AI数学课代表MathGLM魔搭首发,社区体验推理教程来啦!

简介: GLM家族又发布了一个新成员 数学模型 MathGLM ,以提升大语言模型的数学推理能力。它可以在不使用计算器工具的情况下,高效执行复杂算术运算,解答中文数学应用题,已经在魔搭社区全球首发开源啦!

导读


刚刚,GLM家族又发布了一个新成员 数学模型 MathGLM ,以提升大语言模型的数学推理能力。它可以在不使用计算器工具的情况下,高效执行复杂算术运算解答中文数学应用题,已经在魔搭社区全球首发开源啦!


老规矩,还是最新鲜的社区体验、推理实践教程跟上,快一起来看看 MathGLM 这个理科生的表现吧~



环境配置与安装



使用步骤

本文主要演示的模型为MathGLM模型,在ModelScope的免费Notebook的环境(这里以PAI-DSW为例)的配置下运行(显卡类型为A10, 显存24G)


服务器连接与环境准备

1、进入ModelScope首页:modelscope.cn,进入我的Notebook



2、选择GPU环境,进入PAI-DSW在线开发环境



3、新建Notebook



4. 安装相关的python包


pip install SwissArmyTransformer==0.2.*



创空间体验



创空间体验链接(点击文末阅读原文直达):

https://www.modelscope.cn/studios/ZhipuAI/MathGLM-demo/summary


MathGLM 旨在增强大模型在数学推理上的性能,主要关注在精确计算算术运算(基础算术运算和复杂混合运算)和提升模型的中文数学解决能力,接下来,我们就重点考察一下这两部分的能力:


先看算术能力


  • 高位数加减乘除


  • 解方程


算术基础还是很扎实的,再看看生活中的数学理解及应用题解题情况


  • 算价格


  • 分苹果余数问题


  • 浓度计算类



模型链接及下载



MathGLM 模型现已在ModelScope社区开源:

https://modelscope.cn/models/ZhipuAI/MathGLM/summary


社区支持直接下载模型的repo:

from modelscope import snapshot_download, Model, pipeline, Tasks
model_dir = snapshot_download('ZhipuAI/MathGLM', revision='v1.0.0')



模型推理


推理代码:

方法1:使用model推理

from modelscope import snapshot_download, Model, pipeline, Tasks
model_dir = snapshot_download('ZhipuAI/MathGLM', revision='v1.0.0')
model = Model.from_pretrained(model_dir)
query = '鸡和兔在一个笼子里,共有35个头,94只脚,那么鸡有多少只?'
response = model(query)
print(response)
# x=35-((94-35*2)/(4-2))=35-((94-70)/(4-2))=35-(24/(4-2))=35-(24/2)=35-12=23


方法2:使用pipeline推理

from modelscope import snapshot_download, Model, pipeline, Tasks
model_dir = snapshot_download('ZhipuAI/MathGLM', revision='v1.0.0')
pipe = pipeline(task=Tasks.text_generation, model=model_dir)
query = '10*9*8=?'
response = pipe(query)
print(response)
# x=10*9*8=90*8=720


资源消耗:


MathGLM不俗的表现能让我们欣喜地看到LLM在数学能力上的潜力,相信未来LLM会更善于分析和解决实际问题,提供高效的解决方案,同时在决策和判断方面有更加敏锐的表现!


点击阅读原文,直达MathGLM创空间体验:https://www.modelscope.cn/studios/ZhipuAI/MathGLM-demo/summary

相关文章
|
5月前
|
存储 机器学习/深度学习 算法
​​LLM推理效率的范式转移:FlashAttention与PagedAttention正在重塑AI部署的未来​
本文深度解析FlashAttention与PagedAttention两大LLM推理优化技术:前者通过分块计算提升注意力效率,后者借助分页管理降低KV Cache内存开销。二者分别从计算与内存维度突破性能瓶颈,显著提升大模型推理速度与吞吐量,是当前高效LLM系统的核心基石。建议收藏细读。
968 125
|
4月前
|
存储 人工智能 安全
《Confidential MaaS 技术指南》发布,从 0 到 1 构建可验证 AI 推理环境
Confidential MaaS 将从前沿探索逐步成为 AI 服务的安全标准配置。
|
4月前
|
人工智能 自然语言处理 Shell
我们开源了一款 AI 驱动的用户社区
KoalaQA 是一款开源的 AI 驱动用户社区,支持智能问答、语义搜索、自动运营与辅助创作,助力企业降低客服成本,提升响应效率与用户体验。一键部署,灵活接入大模型,快速构建专属售后服务社区。
430 5
我们开源了一款 AI 驱动的用户社区
|
5月前
|
存储 人工智能 NoSQL
用Context Offloading解决AI Agent上下文污染,提升推理准确性
上下文工程是将AI所需信息(如指令、数据、工具等)动态整合到模型输入中,以提升其表现。本文探讨了“上下文污染”问题,并提出“上下文卸载”策略,通过LangGraph实现,有效缓解长文本处理中的信息干扰与模型幻觉,提升AI代理的决策准确性与稳定性。
611 2
用Context Offloading解决AI Agent上下文污染,提升推理准确性
|
5月前
|
人工智能
AI推理方法演进:Chain-of-Thought、Tree-of-Thought与Graph-of-Thought技术对比分析
大语言模型推理能力不断提升,从早期的规模扩展转向方法创新。2022年Google提出Chain-of-Thought(CoT),通过展示推理过程显著提升模型表现。随后,Tree-of-Thought(ToT)和Graph-of-Thought(GoT)相继出现,推理结构由线性链条演进为树状分支,最终发展为支持多节点连接的图网络。CoT成本低但易错传,ToT支持多路径探索与回溯,GoT则实现非线性、多维推理,适合复杂任务。三者在计算成本与推理能力上形成递进关系,推动AI推理向更接近人类思维的方向发展。
371 4
|
5月前
|
人工智能 监控 数据可视化
如何破解AI推理延迟难题:构建敏捷多云算力网络
本文探讨了AI企业在突破算力瓶颈后,如何构建高效、稳定的网络架构以支撑AI产品化落地。文章分析了典型AI IT架构的四个层次——流量接入层、调度决策层、推理服务层和训练算力层,并深入解析了AI架构对网络提出的三大核心挑战:跨云互联、逻辑隔离与业务识别、网络可视化与QoS控制。最终提出了一站式网络解决方案,助力AI企业实现多云调度、业务融合承载与精细化流量管理,推动AI服务高效、稳定交付。
|
4月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
993 50
|
4月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
581 30