本文整理自阿里云智能集团高级技术专家沈林在2026中国生成式AI大会上的分享。
当 Agent 从 AI Coding 走向更广泛的行业场景,一个越来越现实的问题开始浮现:为什么软件工程领域的 Agent 跑得飞快,但很多行业里的 Agent 迟迟没有真正爆发?
一个常见答案是模型能力还不够。但从大量落地实践来看,真正的瓶颈往往不只在模型,而在上下文供给能力:Agent 能不能持续、低成本、可信地接入真实业务世界,决定它能否从 Demo 进入生产。
基于阿里云 EventHouse 的实践,本文尝试从“环境工程”视角,重新理解企业级 Agent 上下文构建问题,并围绕信息完备性、感官管理、知识对账、变更治理、普惠门槛五个维度,讨论如何让 Agent 更简单、可靠地接入多源、实时的业务环境。
一、背景:为什么 AI Coding 先跑通了,而行业 Agent 却难以落地?
今年 2 月,Anthropic发布了一份关于其平台 AI 调用的分析报告。数据显示,软件工程行业的调用量占比高达 49.7%,接近一半。
这个结果说明了一件事:Agent 目前最容易跑通的场景,恰恰是那些本身已经高度数字化、上下文天然在线化的领域,软件工程就是一个典型例子。
在软件研发过程中,程序员天然工作在一个数字世界中:
- 输入端有 PRD、交互设计、技术方案、代码、Issue、日志等;
- 输出端则可以直接完成 Design、Coding、Test、Deploy 等工作。
也就是说,程序员原本就处在一个可被机器“看见”、可被系统“接入”的环境中。AI Coding 之所以能够快速嵌入,根本原因不是“代码更适合 AI”,而是它的工作环境本身就已经完成了数字化表达。
但如果把场景切换到零售、制造、金融、物流等行业,问题就不一样了。
一个超市店长 Agent,如果不知道货架是不是空了、商品标签是不是填错了、隔壁门店有没有在搞促销、今天的生鲜为什么损耗高,那么即便它背后接的是最强模型,也很难做出合理决策。因为在这样的环境里,Agent 实际上仍然处于一种“半失明”的状态——它看不见真实业务里到底发生了什么。
所以,企业级 Agent 落地过程中,一个经常被低估但绕不开的问题是:怎么简单、可靠地为 Agent 构建多源、实时、可信的上下文?
围绕这个问题,我们尝试总结了五个关键判断。
二、五个关键判断
(1)信息完备性是前提:先让 Agent 看见真实业务世界
很多行业里的 Agent 之所以很难真正发挥作用,一个很重要的卡点是:它没有足够的信息感知能力。
这个道理其实并不复杂。无论是人还是 Agent,决策能力的上限,首先都取决于其对环境的观测能力。关键信息缺失,问题在逻辑上就可能无法被充分求解。换句话说,看不见,就很难判断对。
在信息论语境中,也可以用“完备性”(Completeness)来理解这个问题:如果观测环境所能提供的数字信息不具备足够完备性,那么很多任务在底层上就会变得不可解,或者至少无法稳定求解。
AI Coding 为什么更容易成功?因为程序员本来就在一个完整的数字环境中工作;而很多行业里的 Agent 之所以跑不起来,是因为它们只能看到很有限的数字切面。
所以,想让 Agent 真正进入业务现场,第一步不是继续调 Prompt、加 Skill、做记忆优化,而是先解决信息感知问题。
围绕这一点,EventHouse 提供了三类信息感知方式:
- 主动监听(Polling / Monitoring):通过长轮询或定时任务持续监控数据源,在数据变更发生时尽快完成捕捉;
- 事件订阅(Event Subscription):基于事件驱动架构(EDA),当业务事件发生时主动推送给 Agent,实现异步实时响应;
- 挂载查询(Mount Query):对于海量历史数据或归档冷数据,不做全量搬运,而是按需触发即席查询,让 Agent 像“挂载磁盘”一样按需访问。
它们共同解决的是同一个问题:让 Agent 不再停留在静态、片段化的信息环境中,而是能够持续接入真实业务的动态变化。
(2)信息不是越多越好:要给Agent 一本“图书馆馆藏目录”
有了信息感知能力,是不是问题就解决了?其实还没有。
虽然信息“完备性”很重要,但信息绝不是越多越好,也不是对物理世界做一份 1:1 的机械复制。
一方面,这本来就做不到;另一方面,也没有必要。人类进化出来的能力,并不是“接收所有信息”,而是会自动过滤掉大量无效信息,保持注意力聚焦。否则就会出现所谓“感官超载”:输入很多,但重点不清、关联混乱,最后反而无法形成有效判断。
Agent 也是一样。
还有一个更容易被忽视的问题:Agent 感知到的信息,不等于 Agent 真正拥有了这些信息。
比如给 Agent 挂了一个PostgreSQL 的 MCP,它理论上可以知道数据库里有哪些表、字段和描述,也可以执行 SQL。但如果它每次都是等问题来了,才临时去查元数据、理解表结构、拼接查询,这种方式就像“考试前临时抱佛脚”:不仅速度慢、Token消耗高,而且很容易产生语义偏差。
这里有一个很贴切的比喻:这就像给了你一座图书馆。书都在里面,但如果没有目录系统,你每次要用的时候都只能一层楼一层楼找、一排书架一排书架翻,效率会很低,也很容易找错。更进一步说,角落里一本书虽然归你所有,但如果你根本不知道它存在,那它在实际上就等于不存在。
所以,Agent 需要的不只是更多信息,而是一份可以快速定位、持续更新、统一理解的“图书馆馆藏目录”。
EventHouse 的做法,是通过统一 Catalog 管理 Agent 可使用的信息资产,提前记录并维护数据的语义、Schema、新鲜度、来源、适用范围、关联关系等。
这样一来,Agent 就能更清楚地知道:自己手里有哪些信息、每类信息意味着什么、需要时应该去哪里找、哪些内容值得优先使用。
如果说第一步解决的是“有没有上下文”,那么统一 Catalog 解决的就是“上下文能不能被正确消费”。
(3)知识不等于“信息囤积”:要与 Agent 做好“知识对账”
即便拥有了统一 Catalog,问题也并没有完全解决。
我们不会因为一个人拥有一座图书馆,就认为他已经具备了判断力。同样,Agent 也不会因为接入了更多数据源,就自动变得更聪明。信息能否转化为知识,决定了 Agent 最终能否真正用好这些上下文。
从经典的 DIKW(Data-Information-Knowledge-Wisdom)模型来看:
- 数据(Data):客观事实的原始记录,是现实世界的符号化映射;
- 信息(Information):被赋予语境与结构的数据,用来回答“What”,即“发生了什么”;
- 知识(Knowledge):在信息基础上提炼出的规则、经验和方法,用来回答“How”,即“应该如何找到、理解和使用这些信息”;
- 智慧(Wisdom):在明确目标与价值取向的前提下,在复杂情境中,对知识进行综合运用和权衡,进而作出合理决策。
回到企业级 Agent 的上下文构建问题里,真正关键的不只是“拿到更多信息”,而是形成一套可复用、可解释、可审查的取数与用数机制。换句话说,知识的本质不是信息囤积,而是知道如何从多个数据源中准确找出所需信息,并在正确的语义边界内完成解释和行动。
围绕这一点,EventHouse 从两个方向来生成 Agent 可使用的“知识”:
- 一方面,基于统一 Catalog 中的数据定义、Schema 描述和语义信息;
- 另一方面,结合客户对 Agent 的业务设定,例如角色设定(SOUL)、Prompt、Gold Sample、Benchmark 等配置。
最终,这些内容会被组织成一份可读、可审查、可持续迭代的 Knowledge Wiki。
这份 Wiki 的作用很关键。它既能被 Agent 消费,也能被人类专家审阅,从而让人和 Agent 之间建立一种“知识对账”机制:确认 Agent 对取数逻辑的理解是否正确,而不是把所有逻辑都藏在一个黑盒背后。
这一步的价值在于:让 Agent 不只是“连上数据”,而是真正开始“理解数据”。
(4)知识的每一次迭代,都是一次生产级变更
Agent 的知识不是静态资产,而是持续演化的生产资料。
人的成长需要知识升级,Agent 也是一样。上游数据源可能发生变化,Schema 可能更新,客户对 Agent 的角色和目标设定可能调整,运行中的反馈也会不断积累。这些因素都会推动 Agent 的知识体系持续演进。
问题在于:新的 Knowledge Wiki 一旦生成,能不能直接上线被 Agent 使用?
从软件工程实践看,大量生产故障都与变更有关。到了 AI 应用阶段,这个规律并没有消失,只是变更对象发生了变化:从代码、镜像、配置和基础设施,扩展到了 Prompt、Knowledge Wiki、工具与插件、模型能力、Agent 行为策略等。
虽然变更内容不同,但对稳定性的要求没变。企业级 Agent 同样需要一套完整的变更治理机制:发布前可回归、发布中可灰度、发布后可回滚。
基于这一思路,EventHouse 借鉴 CI/CD 的工程方法,将一次 Agent 更新封装为一个可管理的“制品”。这个“制品”可以包含 Prompt、Knowledge Wiki、Gold Sample、Benchmark 以及其他与 Agent 行为相关的关键配置,并围绕它构建完整的持续发布流程:
- 发布前:对多个“制品”进行 Benchmark 回归测试,选择更合适的版本发布;
- 发布中:采用蓝绿发布,监控并对比新旧“制品”的线上效果;
- 发布后:若新“制品”不达标,可从制品仓库快速回滚至历史版本。
这套机制既支持人工审核,也支持自动化演进。它的意义,不只是让 Agent 可以持续更新,而是让更新本身变成一件可治理、可验证、可恢复的事情。
(5)“简单”与“可靠”不是附加项,而是 Agent 普惠的入场券
回看前面四点,无论是多源信息感知、统一 Catalog、知识 Wiki,还是制品化发布,本质上都在为两个目标服务:简单和可靠。
为什么这两个词如此重要?
一个很好的参照是电力普及的历史。电力刚出现的时候,并不是所有企业都能立刻用起来。问题并不在于它没有价值,而在于接入门槛太高:企业要自己买发电机、配维护人员、改造厂房布局,还要承担供电不稳定的风险。直到后来电网成为统一基础设施,工厂只需要一个标准插座,就能获得稳定电力,电气化才真正从少数人的能力变成全行业的能力。
今天的 AI,尤其是企业级Agent,其实也正处在类似阶段。
很多组织并不是不想做 Agent,而是没有能力长期折腾数据集成、语义对齐、架构选型、变更治理和运维保障。如果一套能力只能被少数 AI Native 团队掌握,那么它还谈不上真正普惠。只有当 Agent 接入业务世界这件事,变得像“接电”一样低门槛、标准化、可持续,AI才有可能真正进入千行百业。
从这个意义上说,EventHouse 想做的,就是 AI 时代面向 Agent 的“标准插座”:
- 在广度上:打通消息系统、数据库、对象存储、SaaS 服务等多源数据接入,让 Agent 获得足够的信息感知能力;
- 在深度上:统一对齐结构化、半结构化和非结构化数据语义,构建知识 Wiki;
- 在流程上:把数据集成、存储、查询、检索整合为一体化服务;
- 在形态上:提供 Serverless 体验,按量付费、秒级弹性、零运维。
其目标不是把每家企业都变成基础设施专家,而是尽可能降低 Agent 接入真实业务世界的门槛。
三、结语:企业级 Agent 的竞争,最终会落到上下文供给能力
AI 的下半场,比拼的不只是模型参数和推理能力,更是谁能以更低成本、更高可靠性,把真实世界持续、准确地搬进数字系统。
从软件工程享受到的“数字化红利”,到传统行业仍然缺失的“上下文基础设施”,企业级 Agent 的真正分水岭,正在从模型能力转向环境能力。谁能构建多源、实时、可信、可治理的上下文供给体系,谁就更有机会让 Agent 从“能演示”走向“能生产”。
这也是 EventHouse 持续投入的方向:把多源数据接入、语义管理、知识沉淀、变更治理和 Serverless 体验整合在一起,修一条从真实业务世界通向 Agent 的“高速公路”,让更多行业都能像插上电源一样,更轻松地获得 AI 带来的效率变革。
来源 | 阿里云开发者公众号
作者 | GenAICon 2026