Modelscope 中文竞技场大模型评测

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 本次评测我选得三个类别分别是:写作创作相关、中文游戏、知识常识三个类别。

《一》评测相关配置介绍

本次使用的模型为:ziya-llama-13b-v1、chatglm-6b-v2、baichuan-13b-chat-v1、chatyuan-large-v1、chatPLUG-100Poison,我都是采用的双模型形式测试的。

《二》评测步骤

在中文竞技场模型中,点击立即进入。下面可以选分类。

  1. 第一个分类我选得是写作创作相关,提了两个文学问题和一个自己实际生活需要解决的问题,ziya-llama-13b-v1和chatglm-6b-v2两个模型,在这个方便各有千秋。ziya-llama-13b-v1回答的较详细,且结果朗朗上口好容易就看懂,像平时的记事文章。chatglm-6b-v2呢,回答的就比较简介,感觉很牛的样子,专业性会比较强。但是就我而言,我更喜欢模型A,很容易读懂。
    634ac6a4b569865e31eb00e5ec246091.png

  2. 第二个分类我选得是中文分类相关的。问了一个成语的意思和两个字谜。这一个环节baichuan-13b-chat-v1完胜chatyuan-large-v1,baichuan-13b-chat-v1整理都回答出了我想问的问题,对于问题的重点捕获非常到位,chatyuan-large-v1基本上没有捕获到问题的重点,草草回答了几个字,很是潦草。
    85cb836aeee51ac5c9b568f165d1feb6.png

  3. 第三个环节是知识常识。问了一些数学和社会的问题。chatPLUG-100Poison回答得很详细,会把解题步骤都给写出来。chatyuan-large-v1这次把问题的重点都给捕获到了,回答得非常简介,几乎是没有步骤可言,比较适用于有基础,就想知道答案的同学。
    3abbe4641a8fd552057b1416b4319175.png

    《评测总结》

  • chatyuan-large-v1非常不擅长文字类的问题。回答数学问题或者专业性抢得问题还不错,但是比较适合基础较好或者理解能力非常高的用户使用,步骤比较简介,或直接给出答案。
  • chatPLUG-100Poison这个还是非常不错的。对于文字问题以及专业问题都掌握得非常好。而且步骤很详细,适合于大部分用户。
  • baichuan-13b-chat-v1我让百川回答了几个字谜,分析得很有道理。是比较机灵的模型,值得推荐。
  • chatglm-6b-v2回答问题的重点和详细程序都掌握得不错,但是回答得内容,不能普遍适用。
  • ziya-llama-13b-v1这个还是非常优秀的。是我最喜欢的文字回答模型,回答到我心坎里了,而且答案超级适用,适合大力推广。
目录
相关文章
|
3月前
|
人工智能 文字识别 安全
大模型能力评测方式很多?
AI评测非单一分数比拼,而是多维度、多方法的系统工程。其核心框架可拆解为基础维度、主流基准与关键方法,共同构成模型能力的“CT扫描”系统。
298 0
|
6月前
|
人工智能 自然语言处理 JavaScript
通义灵码2.5实战评测:Vue.js贪吃蛇游戏一键生成
通义灵码基于自然语言需求,快速生成完整Vue组件。例如,用Vue 2和JavaScript实现贪吃蛇游戏:包含键盘控制、得分系统、游戏结束判定与Canvas动态渲染。AI生成的代码符合规范,支持响应式数据与事件监听,还能进阶优化(如增加启停按钮、速度随分数提升)。传统需1小时的工作量,使用通义灵码仅10分钟完成,大幅提升开发效率。操作简单:安装插件、输入需求、运行项目即可实现功能。
297 4
 通义灵码2.5实战评测:Vue.js贪吃蛇游戏一键生成
|
6月前
|
人工智能 自然语言处理 IDE
技术赋能新维度,灵码进化新突破:通义灵码2.5新功能尝鲜及深度评测
通义灵码是阿里云推出的基于通义大模型的智能编程助手,作为首款全栈智能辅助的国产编码工具,它为开发者提供“第二大脑”,并重构团队协作效能。2.5版本新增智能体模式,支持Qwen3系列模型,具备自主决策、工程感知和记忆能力,集成3000+MCP工具。其优势包括多模式对话体验、上下文增强、全流程工具链支持及个性化记忆功能,但仍存在上下文管理、权限控制和语言支持等方面的改进空间。此次更新标志着AI辅助开发进入全链路智能化新纪元,成为开发者真正的“结对编程伙伴”。
1134 36
|
2月前
|
人工智能 数据可视化 前端开发
AI Ping:精准可靠的大模型服务性能评测平台
AI Ping是清华系团队推出的“大模型服务评测平台”,被誉为“AI界的大众点评”。汇聚230+模型服务,7×24小时监测性能数据,以吞吐量、延迟等硬指标助力开发者科学选型。界面简洁,数据可视化强,支持多模型对比,横向对标国内外主流平台,为AI应用落地提供权威参考。
351 3
|
30天前
|
人工智能 自然语言处理 监控
58_大模型评估与评测:构建科学的多维度评测体系
在大语言模型(LLM)技术飞速发展的今天,如何科学、全面地评估和评测这些模型的能力已成为学术界和工业界共同关注的核心问题。2025年,大模型生态系统呈现出百花齐放的态势,从参数规模、架构设计到应用场景都出现了多样化的发展路径。在这种背景下,单一的性能指标或评测方法已经无法满足对大模型进行全面评估的需求。
|
5月前
|
人工智能 IDE 搜索推荐
通义灵码2.5评测:从编程智能体到记忆感知的AI编码革命
通义灵码2.5版本更新带来了多项新功能,包括Lingma IDE的开箱即用体验、编程智能体模式实现端到端编码任务、MCP工具集成扩展AI助手能力以及Qwen3模型升级大幅提升代码生成准确性和效率。此外,新增长期记忆与上下文感知功能,使开发更个性化和高效。尽管存在一些局限性,如复杂业务逻辑仍需人工干预,但整体显著提升了开发效率。官方还提供了高质量视频课程助力用户学习。
925 10
|
5月前
|
数据采集 人工智能 安全
揭秘大模型评测:如何用“说明书”式方法实现业务场景下的精准评估
本文旨在系统性地介绍如何在实际业务场景中开展大模型评测工作,帮助读者理解并掌握从需求分析、评测集设计与生成、评测维度设定、评测任务执行到评测报告输出的完整流程。
|
6月前
|
人工智能 Java API
通义灵码 2.5 版深度评测:智能编程的边界在哪里?
通义灵码 2.5 版深度评测:智能编程的边界在哪里?
194 2
|
6月前
|
传感器 人工智能 API
通义灵码2.5深度评测:编程智能体与MCP工具的革新体验
通义灵码2.5通过“智能体+MCP”组合,重新定义了AI编码助手的边界。其价值不仅在于代码生成效率,更在于通过工具链整合和环境感知,推动开发流程向“声明式编程”演进。对于开发者而言,它既是提升效率的利器,也是探索AI辅助开发边界的实验场。
455 8
|
7月前
|
算法 物联网 Swift
Qwen3 X ModelScope工具链: 飞速训练 + 全面评测
Qwen于近日发布了Qwen3系列模型,包含了各个不同规格的Dense模型和MoE模型。开源版本中,Dense模型基本沿用了之前的模型结构,差别之处在于对于Q和K两个tensor增加了RMSNorm;MoE模型去掉了公共Expert,其他结构基本与前一致。在模型大小上,涵盖了从0.6B到32B(Dense)和235B(MoE)不同的尺寸。
923 15

热门文章

最新文章

下一篇
开通oss服务