Ling-1T,智渊、思简

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 今天,我们正式发布Ling 2.0系列的第一款 旗舰非思考模型 - 拥有万亿参数的Ling-1T。推理,是智能的核心表达,更是通用智能体的认知基石。因此,我们持续扩展Ling 2.0 系列模型的自然语言推理能力。Ling-1T沿用 Li…

今天,我们正式发布Ling 2.0系列的第一款旗舰非思考模型 - 拥有万亿参数的Ling-1T。

推理,是智能的核心表达,更是通用智能体的认知基石。因此,我们持续扩展Ling 2.0 系列模型的自然语言推理能力。Ling-1T沿用Ling 2.0 架构,如其模型代号所示,我们将其扩展至1T(Trillion,万亿)总参数,每个token激活其中约50B参数。Ling-1T-base在20T+ token高质量、高推理浓度的语料上完成预训练,支持最高128K上下文窗口,通过“中训练+后训练”的演进式思维链(Evo-CoT)极大提升模型高效推理能力。Ling-1T在有限输出token条件下,于多项复杂推理基准中取得SOTA表现,展示出在高效思考与精确推理之间的卓越平衡。


旗舰级的高效推理




为了全面评估 Ling-1T 的综合推理能力,我们选择了几款具有代表性的旗舰模型作为参考,包括大参数量的开源模型(DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905)与闭源 API(gpt-5-main、Gemini-2.5-Pro)。在代码生成、软件开发、竞赛数学、专业数学、逻辑推理等多项高难度基准测试上,Ling-1T 均展现出领先的复杂推理能力与全面优势。


此外,我们还分析了 Ling-1T 在推理精度和效率上的综合表现。下图以竞赛数学榜单 AIME 25 为例,展示 Ling-1T 拓展了推理准确率和平均推理长度的帕累托前沿,体现了其“高效思考与精准推理”的优势。


Ling-1T 拓展了推理准确率和平均推理长度的帕累托前沿

(以 AIME 25 为例)


可视化与前端的美学认知

Ling-1T 在可视化与前端开发等复杂跨模态任务中表现突出,展现出深度语义理解与高精度代码生成能力。在高效推理的基础上,我们进一步引入 “语法—功能—美学” 的混合奖励机制,使这一万亿级基座模型在确保代码正确与功能完善的同时,不断提升对视觉美学的理解与生成能力。在 ArtifactsBench 前端能力基准上,Ling-1T 以显著优势位居开源模型榜首。本文的前两幅基准测试对比图,正是由 Ling-1T “亲手为自己”绘制的。以下是一些 Ling-1T 完成的前端应用开发。


三体图谱

让 Ling-1T 开发一个展示 《三体》主要人物关系及阵营的图谱页面,并提供详细的视觉效果要求(配色、风格、鼠标悬停效果等),Ling-1T 均一一准确实现。


Crane云平台网页开发

Ling-1T 根据要求,完整实现了用户登录、数据仪表盘、客户管理、设备管理等功能。


塔罗运势

Ling-1T 开发的“在线塔罗牌运势预测”页面,根据产品需求,完整实现了首页、占卜流程、运势报告、塔罗数据库、用户评价、塔罗知识小贴士等产品功能。


万亿基座的智能涌现

在万亿级旗舰模型的研发过程中,我们多次观察到:扩大模型规模与强化推理能力,往往会带来出乎意料的跨领域泛化表现。例如,在智能体工具调用任务BFCL V3上Ling-1T虽未在中训练阶段引入大量操作轨迹,仅通过少量指令微调,即可达到约70%的调用准确率,展现出卓越的推理迁移与泛化能力。Ling-1T 能精准理解复杂自然语言指令,自主完成综合性任务:将模糊的逻辑问题转化为功能完备的可视化组件,为多端环境生成高兼容性前端代码,或根据指定风格与语气创作营销文案、文学续篇及多语种文本。我们认为,这些能力构成了通用智能体的关键基础。未来,我们将持续探索其背后的机制,并通过 Ling-1T 的开源,邀请社区共同推动更通用、更具协作性的人机共融智能系统发展。以下是 Ling-1T 完成的一些复杂任务


Demo:

可以随意控制的六边形+小球运动

写一个HTML脚本,展示1个小球在旋转的六边形内弹跳碰撞,需要满足如下要求

1. 六边形大小可以实时调整

2. 六边形旋转速度可以实时调整

3. 小球大小可以实时调整

4. 小球和六边形间的碰撞符合物理规律,需要考虑重力、摩擦力、反弹力等等


文风魔盒

要求 Ling-1T 开发一个展示其自身不同写作风格能力的应用,包括前端页面和后端服务调用脚本。


运筹优化问题求解与演示

Ling-1T 根据提示词要求,对六种常见的优化问题(线性规划、旅行商问题、车辆路径问题、作业调度、最大流求解、交互式数独)进行求解并同时用pygame生成教学演示动画。


上海citywalk行程规划

Ling-1T 根据给定信息和要求(酒店、目的地坐标,步行为主,停留时长等)进行上海一日游行程规划,并开发页面,利用mapbox地图引擎展示整个行程。


扫雷

Ling-1T 根据给定的扫雷游戏信息,先自行推理出通关方式,再完成游戏页面开发。


预训练

Ling 2.0 架构 从设计之初即面向万亿基座充分训练的计算规模,为此我们首先建立了支持精确外推预测的 Ling Scaling Laws(https://arxiv.org/abs/2507.17702),并在其指导下进行架构选型,以确保所有的架构细节和超参选择,在 1e25 ~ 1e26 FLOPs 的巨大计算量下依然保持可扩展的架构效率。


于是,我们将 Ling 2.0 架构扩展到 1T 总参数,50B 激活参数的万亿基座。基于 Ling Scaling Laws 的分析,我们发现其高度稀疏的 1/32 MoE 激活比例与 MTP 层等架构设计,有助于进一步提升模型的复杂推理能力。为确保万亿基座的稳定训练,Ling-1T 采用零均值更新的 aux-loss-free 和 sigmoid scoring 的专家路由均衡策略,配合 QK Normalization 实现了全程无回退的稳定训练

Ling-1T 模型架构图


Ling-1T 全程采用 FP8 混合精度训练(部分技术已开源),是目前已知规模最大的使用 FP8 训练的基座模型。这一设计为训练带来了显著的显存节省、更灵活的并行切分策略和 15%+ 的端到端加速。我们在接近 1T token 的训练量上,对 FP8 与 BF16 训练进行了系统对比,结果显示二者 Loss 偏差仅约 0.1%,验证了 FP8 训练在万亿级规模下的稳定性与可靠性。由于 Ling 2.0 的层间异构架构(Embedding、Dense、MoE、MTP、Loss 等)导致流水线负载不均,我们将 interleaved 1F1B pipeline 改进为 异构细粒度pipeline,实现了更精细的流水线编排与更低的空泡率,带来 40%+ 的端到端加速。此外,我们在 算子融合、通信优化、重计算、Checkpoint 存储、仿真训练 与 细粒度监控 等方面进行了系统性优化,为万亿级基座的高效稳定训练提供了全面保障。其中大量设计思路和技术方案源自开源社区,我们也将持续回馈 Ling-1T 训练过程中的工程经验与优化实践,推动社区共建。


Ling-1T 在FP8和BF16上训练Loss对比


Ling-1T在超过20T token的高质量语料上完成预训练。为充分提升模型的基础推理能力,我们在第二阶段(后 10T token)的预训练中引入了高推理密度语料,使整个预训练过程中推理相关语料的占比超过40%。此外,在中训练(Mid-training)阶段,我们进一步加入了高质量的思维链推理语料,我们发现,这一策略能够有效实现模型推理能力的 “预激活”,为后训练阶段提供更高的推理上限和更稳定的思维基础。与Ling-mini-2.0、Ling-flash-2.0类似,我们也采用了自研的WSM (Warmup-Stable and Merge)LR schedulerhttps://arxiv.org/abs/2507.17634)。通过mid-training checkpoint merging来模拟 LR decay,进一步获得下游任务的整体提升。



后训练

有了中训练阶段思维链推理语料的预激活,我们在后训练阶段使用演进式思维链(Evo-CoT)的持续优化策略,由浅入深的激活模型推理能力,同时又可对推理成本进行精细控制。我们认为,对于反射式的非思考模型,这一套从预训练到后训练逐步激活模型推理能力的训练方法,可不断拓展推理准确率和成本的帕累托前沿,实现高效思考与精确推理的最佳平衡。


在强化学习阶段,我们提出了以“句子”为粒度的策略优化方法 LPO(Linguistics-Unit Policy Optimization)。当前主流的强化学习算法将每个词元(如GRPO)或整个生成序列(如GSPO)作为独立动作进行优化,这可能会带来语义的过度碎片化、或奖励信号的过度平滑。我们发现,对于推理任务而言,句子是更符合语义逻辑的动作单元。为此,LPO 首次将“ 句子 ”作为一种兼顾语义完整性与粒度精细度的中间策略,并在此粒度上进行重要性采样与裁剪,使得奖励信号与模型行为在语义层面实现了更精准的对齐。如下图所示,与 GRPO 和 GSPO 相比,LPO 在训练稳定性与模型泛化性上均表现出明显优势。



LPO与主流RL算法对比


我们全面评估了 Ling-1T 在知识、代码、数学、推理、智能体、对齐等多个权威基准评测上的表现,Ling-1T 是当下最好的开源旗舰非思考模型,在复杂推理任务上优势尤其明显,与闭源的旗舰模型API对比也不落下风。


Ling-1T在部分权威基准评测的表现(红色加粗代表Top1,黑色加粗下划线表示Top2)



局限性与未来计划

尽管 Ling-1T 在高效推理、跨领域泛化与训练效率方面取得显著进展,但仍存在以下局限:


attention 架构仍基于 GQA

在超长上下文和复杂推理任务中表现稳定,但推理成本偏高。后续将引入混合注意力架构,以提升训练推理效率、降低算力开销。


智能体能力仍需强化

当前版本在多轮交互、长期记忆和复杂工具使用等方面仍有限,近期将持续提升工具理解与使用能力,增强模型的主动性与泛化能力。


指令遵循与身份认知问题

部分场景下仍可能出现指令执行偏差或角色混淆。后续将通过 强化式身份对齐与安全微调 改进模型一致性。


未来版本将继续在架构、推理与对齐层面迭代,推动 Ling 系列迈向更高水平的通用智能。


欢迎大家访问开源链接和体验页面进行下载使用。

ModelScope: https:// modelscope.cn/models/in clusionAI/Ling-1T
HuggingFace: https:// huggingface.co/inclusio nAI/Ling-1T
GitHub: https:// github.com/inclusionAI/ Ling-V2
Ling chat(国内用户): https:// ling.tbox.cn/chat
ZenMux(海外开发者,提供 Chat 测试与 API 等能力): https:// zenmux.ai/inclusionai/l ing-1t


点击可跳转模型链接:https://modelscope.cn/models/inclusionAI/Ling-1T

目录
相关文章
|
12天前
|
存储 关系型数据库 分布式数据库
PostgreSQL 18 发布,快来 PolarDB 尝鲜!
PostgreSQL 18 发布,PolarDB for PostgreSQL 全面兼容。新版本支持异步I/O、UUIDv7、虚拟生成列、逻辑复制增强及OAuth认证,显著提升性能与安全。PolarDB-PG 18 支持存算分离架构,融合海量弹性存储与极致计算性能,搭配丰富插件生态,为企业提供高效、稳定、灵活的云数据库解决方案,助力企业数字化转型如虎添翼!
|
10天前
|
存储 人工智能 搜索推荐
终身学习型智能体
当前人工智能前沿研究的一个重要方向:构建能够自主学习、调用工具、积累经验的小型智能体(Agent)。 我们可以称这种系统为“终身学习型智能体”或“自适应认知代理”。它的设计理念就是: 不靠庞大的内置知识取胜,而是依靠高效的推理能力 + 动态获取知识的能力 + 经验积累机制。
374 133
|
10天前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
本文讲解 Prompt 基本概念与 10 个优化技巧,结合学术分析 AI 应用的需求分析、设计方案,介绍 Spring AI 中 ChatClient 及 Advisors 的使用。
463 131
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
|
4天前
|
存储 安全 前端开发
如何将加密和解密函数应用到实际项目中?
如何将加密和解密函数应用到实际项目中?
211 138
|
11天前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
433 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
4天前
|
存储 JSON 安全
加密和解密函数的具体实现代码
加密和解密函数的具体实现代码
222 136
|
22天前
|
机器学习/深度学习 人工智能 前端开发
通义DeepResearch全面开源!同步分享可落地的高阶Agent构建方法论
通义研究团队开源发布通义 DeepResearch —— 首个在性能上可与 OpenAI DeepResearch 相媲美、并在多项权威基准测试中取得领先表现的全开源 Web Agent。
1539 87
|
23天前
|
弹性计算 关系型数据库 微服务
基于 Docker 与 Kubernetes(K3s)的微服务:阿里云生产环境扩容实践
在微服务架构中,如何实现“稳定扩容”与“成本可控”是企业面临的核心挑战。本文结合 Python FastAPI 微服务实战,详解如何基于阿里云基础设施,利用 Docker 封装服务、K3s 实现容器编排,构建生产级微服务架构。内容涵盖容器构建、集群部署、自动扩缩容、可观测性等关键环节,适配阿里云资源特性与服务生态,助力企业打造低成本、高可靠、易扩展的微服务解决方案。
1365 8

热门文章

最新文章