今天,我们正式发布Ling 2.0系列的第一款旗舰非思考模型 - 拥有万亿参数的Ling-1T。
推理,是智能的核心表达,更是通用智能体的认知基石。因此,我们持续扩展Ling 2.0 系列模型的自然语言推理能力。Ling-1T沿用Ling 2.0 架构,如其模型代号所示,我们将其扩展至1T(Trillion,万亿)总参数,每个token激活其中约50B参数。Ling-1T-base在20T+ token高质量、高推理浓度的语料上完成预训练,支持最高128K上下文窗口,通过“中训练+后训练”的演进式思维链(Evo-CoT)极大提升模型高效推理能力。Ling-1T在有限输出token条件下,于多项复杂推理基准中取得SOTA表现,展示出在高效思考与精确推理之间的卓越平衡。
旗舰级的高效推理
为了全面评估 Ling-1T 的综合推理能力,我们选择了几款具有代表性的旗舰模型作为参考,包括大参数量的开源模型(DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905)与闭源 API(gpt-5-main、Gemini-2.5-Pro)。在代码生成、软件开发、竞赛数学、专业数学、逻辑推理等多项高难度基准测试上,Ling-1T 均展现出领先的复杂推理能力与全面优势。
此外,我们还分析了 Ling-1T 在推理精度和效率上的综合表现。下图以竞赛数学榜单 AIME 25 为例,展示 Ling-1T 拓展了推理准确率和平均推理长度的帕累托前沿,体现了其“高效思考与精准推理”的优势。
Ling-1T 拓展了推理准确率和平均推理长度的帕累托前沿
(以 AIME 25 为例)
可视化与前端的美学认知
Ling-1T 在可视化与前端开发等复杂跨模态任务中表现突出,展现出深度语义理解与高精度代码生成能力。在高效推理的基础上,我们进一步引入 “语法—功能—美学” 的混合奖励机制,使这一万亿级基座模型在确保代码正确与功能完善的同时,不断提升对视觉美学的理解与生成能力。在 ArtifactsBench 前端能力基准上,Ling-1T 以显著优势位居开源模型榜首。本文的前两幅基准测试对比图,正是由 Ling-1T “亲手为自己”绘制的。以下是一些 Ling-1T 完成的前端应用开发。
三体图谱
让 Ling-1T 开发一个展示 《三体》主要人物关系及阵营的图谱页面,并提供详细的视觉效果要求(配色、风格、鼠标悬停效果等),Ling-1T 均一一准确实现。
Crane云平台网页开发
Ling-1T 根据要求,完整实现了用户登录、数据仪表盘、客户管理、设备管理等功能。
塔罗运势
Ling-1T 开发的“在线塔罗牌运势预测”页面,根据产品需求,完整实现了首页、占卜流程、运势报告、塔罗数据库、用户评价、塔罗知识小贴士等产品功能。
万亿基座的智能涌现
在万亿级旗舰模型的研发过程中,我们多次观察到:扩大模型规模与强化推理能力,往往会带来出乎意料的跨领域泛化表现。例如,在智能体工具调用任务BFCL V3上,Ling-1T虽未在中训练阶段引入大量操作轨迹,仅通过少量指令微调,即可达到约70%的调用准确率,展现出卓越的推理迁移与泛化能力。Ling-1T 能精准理解复杂自然语言指令,自主完成综合性任务:将模糊的逻辑问题转化为功能完备的可视化组件,为多端环境生成高兼容性前端代码,或根据指定风格与语气创作营销文案、文学续篇及多语种文本。我们认为,这些能力构成了通用智能体的关键基础。未来,我们将持续探索其背后的机制,并通过 Ling-1T 的开源,邀请社区共同推动更通用、更具协作性的人机共融智能系统发展。以下是 Ling-1T 完成的一些复杂任务
Demo:
可以随意控制的六边形+小球运动
写一个HTML脚本,展示1个小球在旋转的六边形内弹跳碰撞,需要满足如下要求
1. 六边形大小可以实时调整
2. 六边形旋转速度可以实时调整
3. 小球大小可以实时调整
4. 小球和六边形间的碰撞符合物理规律,需要考虑重力、摩擦力、反弹力等等
文风魔盒
要求 Ling-1T 开发一个展示其自身不同写作风格能力的应用,包括前端页面和后端服务调用脚本。
运筹优化问题求解与演示
Ling-1T 根据提示词要求,对六种常见的优化问题(线性规划、旅行商问题、车辆路径问题、作业调度、最大流求解、交互式数独)进行求解并同时用pygame生成教学演示动画。
上海citywalk行程规划
Ling-1T 根据给定信息和要求(酒店、目的地坐标,步行为主,停留时长等)进行上海一日游行程规划,并开发页面,利用mapbox地图引擎展示整个行程。
扫雷
Ling-1T 根据给定的扫雷游戏信息,先自行推理出通关方式,再完成游戏页面开发。
预训练
Ling 2.0 架构 从设计之初即面向万亿基座充分训练的计算规模,为此我们首先建立了支持精确外推预测的 Ling Scaling Laws(https://arxiv.org/abs/2507.17702),并在其指导下进行架构选型,以确保所有的架构细节和超参选择,在 1e25 ~ 1e26 FLOPs 的巨大计算量下依然保持可扩展的架构效率。
于是,我们将 Ling 2.0 架构扩展到 1T 总参数,50B 激活参数的万亿基座。基于 Ling Scaling Laws 的分析,我们发现其高度稀疏的 1/32 MoE 激活比例与 MTP 层等架构设计,有助于进一步提升模型的复杂推理能力。为确保万亿基座的稳定训练,Ling-1T 采用零均值更新的 aux-loss-free 和 sigmoid scoring 的专家路由均衡策略,配合 QK Normalization 实现了全程无回退的稳定训练。
Ling-1T 模型架构图
Ling-1T 全程采用 FP8 混合精度训练(部分技术已开源),是目前已知规模最大的使用 FP8 训练的基座模型。这一设计为训练带来了显著的显存节省、更灵活的并行切分策略和 15%+ 的端到端加速。我们在接近 1T token 的训练量上,对 FP8 与 BF16 训练进行了系统对比,结果显示二者 Loss 偏差仅约 0.1%,验证了 FP8 训练在万亿级规模下的稳定性与可靠性。由于 Ling 2.0 的层间异构架构(Embedding、Dense、MoE、MTP、Loss 等)导致流水线负载不均,我们将 interleaved 1F1B pipeline 改进为 异构细粒度pipeline,实现了更精细的流水线编排与更低的空泡率,带来 40%+ 的端到端加速。此外,我们在 算子融合、通信优化、重计算、Checkpoint 存储、仿真训练 与 细粒度监控 等方面进行了系统性优化,为万亿级基座的高效稳定训练提供了全面保障。其中大量设计思路和技术方案源自开源社区,我们也将持续回馈 Ling-1T 训练过程中的工程经验与优化实践,推动社区共建。
Ling-1T 在FP8和BF16上训练Loss对比
Ling-1T在超过20T token的高质量语料上完成预训练。为充分提升模型的基础推理能力,我们在第二阶段(后 10T token)的预训练中引入了高推理密度语料,使整个预训练过程中推理相关语料的占比超过40%。此外,在中训练(Mid-training)阶段,我们进一步加入了高质量的思维链推理语料,我们发现,这一策略能够有效实现模型推理能力的 “预激活”,为后训练阶段提供更高的推理上限和更稳定的思维基础。与Ling-mini-2.0、Ling-flash-2.0类似,我们也采用了自研的WSM (Warmup-Stable and Merge)LR scheduler(https://arxiv.org/abs/2507.17634)。通过mid-training checkpoint merging来模拟 LR decay,进一步获得下游任务的整体提升。
后训练
有了中训练阶段思维链推理语料的预激活,我们在后训练阶段使用演进式思维链(Evo-CoT)的持续优化策略,由浅入深的激活模型推理能力,同时又可对推理成本进行精细控制。我们认为,对于反射式的非思考模型,这一套从预训练到后训练逐步激活模型推理能力的训练方法,可不断拓展推理准确率和成本的帕累托前沿,实现高效思考与精确推理的最佳平衡。
在强化学习阶段,我们提出了以“句子”为粒度的策略优化方法 LPO(Linguistics-Unit Policy Optimization)。当前主流的强化学习算法将每个词元(如GRPO)或整个生成序列(如GSPO)作为独立动作进行优化,这可能会带来语义的过度碎片化、或奖励信号的过度平滑。我们发现,对于推理任务而言,句子是更符合语义逻辑的动作单元。为此,LPO 首次将“ 句子 ”作为一种兼顾语义完整性与粒度精细度的中间策略,并在此粒度上进行重要性采样与裁剪,使得奖励信号与模型行为在语义层面实现了更精准的对齐。如下图所示,与 GRPO 和 GSPO 相比,LPO 在训练稳定性与模型泛化性上均表现出明显优势。
LPO与主流RL算法对比
我们全面评估了 Ling-1T 在知识、代码、数学、推理、智能体、对齐等多个权威基准评测上的表现,Ling-1T 是当下最好的开源旗舰非思考模型,在复杂推理任务上优势尤其明显,与闭源的旗舰模型API对比也不落下风。
Ling-1T在部分权威基准评测的表现(红色加粗代表Top1,黑色加粗下划线表示Top2)
局限性与未来计划
尽管 Ling-1T 在高效推理、跨领域泛化与训练效率方面取得显著进展,但仍存在以下局限:
attention 架构仍基于 GQA
在超长上下文和复杂推理任务中表现稳定,但推理成本偏高。后续将引入混合注意力架构,以提升训练推理效率、降低算力开销。
智能体能力仍需强化
当前版本在多轮交互、长期记忆和复杂工具使用等方面仍有限,近期将持续提升工具理解与使用能力,增强模型的主动性与泛化能力。
指令遵循与身份认知问题
部分场景下仍可能出现指令执行偏差或角色混淆。后续将通过 强化式身份对齐与安全微调 改进模型一致性。
未来版本将继续在架构、推理与对齐层面迭代,推动 Ling 系列迈向更高水平的通用智能。
欢迎大家访问开源链接和体验页面进行下载使用。
ModelScope: https:// modelscope.cn/models/in clusionAI/Ling-1T
HuggingFace: https:// huggingface.co/inclusio nAI/Ling-1T
GitHub: https:// github.com/inclusionAI/ Ling-V2
Ling chat(国内用户): https:// ling.tbox.cn/chat
ZenMux(海外开发者,提供 Chat 测试与 API 等能力): https:// zenmux.ai/inclusionai/l ing-1t
点击可跳转模型链接:https://modelscope.cn/models/inclusionAI/Ling-1T