长期以来,真正“深度”的研究型写作,一直被云端大模型垄断。
一边,是能力极强的闭源系统,能检索、能推理、能写万字长文; 另一边,是企业和研究机构越来越严苛的数据安全要求——核心资料不能出域、不能上云、不能被记录。
这几乎是一道无解的选择题。
直到最近,一个信号级别很高的项目出现了。
1 月 20 日,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 社区联合开源了 8B 端侧写作智能体 AgentCPM-Report。它做了一件过去被认为“几乎不可能”的事:在完全本地部署的前提下,把 DeepResearch 级别的写作能力,压进了一个 8B 模型。

一、为什么说这是一次“方向性”的突破
在深度研究场景中,问题从来不只是“模型大不大”。
真正困难的是三件事同时成立:
能长期、多轮检索与推理
能把碎片信息组织成严密的逻辑结构
能在长文本中保持一致性、洞察力和判断力
过去,这几乎等同于“必须上云 + 必须用闭源大模型”。
AgentCPM-Report 选择了一条完全不同的路线:不追求参数规模,而是把写作本身,当成一种推理过程来设计。
二、“以小博大”的核心机制:写作即推理
官方披露的数据很有意思:
单次任务中,平均进行约 40 轮深度检索
同时伴随 近 100 轮思维链推演
最终生成逻辑完整、可达万字规模的研究报告
关键不在“算得多”,而在算的方式被重构了。
AgentCPM-Report 并不是一次性“写完全文”,而是采用一种类似人类研究员的方式:
先起草结构和关键论点
再不断回溯、补证据、细化逻辑
通过“起草 → 深化 → 校正”的循环,把长写作拆解成一系列可控的小目标
这种设计,极大降低了小模型在长文本中“逻辑崩塌”的概率。
三、端侧部署,真正解决的是“物理级安全”
另一个被反复强调的点,是完全离线、本地运行。
AgentCPM-Report 从设计之初,就面向高隐私场景:
无需云端调用
不上传任何数据
本地知识库“只进不出”
它基于开源的 UltraRAG 框架,可以直接挂载企业内部的 PDF、TXT、报告、制度文件,自动完成切片、索引和向量化。
这意味着一件很重要的事:
深度研究能力,第一次可以被安全地放进“内网”。
对企业研究、合规分析、战略咨询、内部智库来说,这不是性能优化,而是可不可以用的区别。
四、评测结果:在“洞察力”上击败闭源系统
在多个主流深度调研评测基准中,AgentCPM-Report 的成绩相当激进:
DeepResearch Bench
Deep Consult
DeepResearch Gym
尤其在 洞察性指标 上排名第一,在全面性上进入第一梯队,仅略低于基于 Claude 的复杂写作系统。
在 DeepResearch Gym 中,它的综合得分达到 98.48,在深度、广度、洞察力等关键维度全部拿到满分。
这基本坐实了一件事:端侧模型,已经开始正面进入“高阶认知任务”的战场。
五、从 Demo 到生产:部署门槛被拉到极低
从工程视角看,这个项目并不“学院派”。
支持 Docker 一键启动
不需要写代码
本地文档直接拖拽导入
自动完成切片、索引、引用标注
用户只需要输入研究主题,就能得到一份结构清晰、可溯源的专业报告。
官方还展示了一个很“残忍”的案例: 基于《三体》原文知识库,自动完成“面壁计划”的深度研究报告,从线索挖掘到万字成文,全流程自动完成。
这已经不是简单的写作辅助,而是完整的研究工作流自动化。
六、这意味着什么?
AgentCPM-Report 真正重要的,并不是“又一个模型开源了”。
而是它释放了一个清晰信号:
DeepResearch 不再是云端特权
小模型 + 智能体架构,开始挑战高阶认知任务
本地化、可控、可审计的 AI 研究系统,正在成为现实选项
接下来,问题可能不再是“能不能做到”,而是:
谁会最先把这种能力,用进真实业务里。