Agent 开发范式演进:从环境工程出发,“简化”多源实时上下文

简介: 本文整理自阿里云智能集团高级技术专家沈林在 2026 GenAICon 中国生成式 AI 大会上的分享。

作者:沈林

本文整理自阿里云智能集团高级技术专家沈林在 2026 GenAICon 中国生成式 AI 大会上的分享。


当 Agent 从 AI Coding 走向更广泛的行业场景,一个越来越现实的问题开始浮现:为什么软件工程领域的 Agent 跑得飞快,但很多行业里的 Agent 迟迟没有真正爆发?


一个常见答案是模型能力还不够。但从大量落地实践来看,真正的瓶颈往往不只在模型,而在上下文供给能力:Agent 能不能持续、低成本、可信地接入真实业务世界,决定它能否从 Demo 进入生产。


基于阿里云 EventHouse 的实践,本文尝试从“环境工程”视角,重新理解企业级 Agent 上下文构建问题,并围绕信息完备性、感官管理、知识对账、变更治理、普惠门槛五个维度,讨论如何让 Agent 更简单、可靠地接入多源、实时的业务环境。

为什么 AI Coding 先跑通了,而行业 Agent 却难以落地?

今年 2 月,Anthropic 发布了一份关于其平台 AI 调用的分析报告。数据显示,软件工程行业的调用量占比高达 49.7%,接近一半。


这个结果说明了一件事:Agent 目前最容易跑通的场景,恰恰是那些本身已经高度数字化、上下文天然在线化的领域,软件工程就是一个典型例子。

在软件研发过程中,程序员天然工作在一个数字世界中:

  • 输入端有 PRD、交互设计、技术方案、代码、Issue、日志等;
  • 输出端则可以直接完成 Design、Coding、Test、Deploy 等工作。


也就是说,程序员原本就处在一个可被机器“看见”、可被系统“接入”的环境中。AI Coding 之所以能够快速嵌入,根本原因不是“代码更适合 AI”,而是它的工作环境本身就已经完成了数字化表达。

但如果把场景切换到零售、制造、金融、物流等行业,问题就不一样了。


一个超市店长 Agent,如果不知道货架是不是空了、商品标签是不是填错了、隔壁门店有没有在搞促销、今天的生鲜为什么损耗高,那么即便它背后接的是最强模型,也很难做出合理决策。因为在这样的环境里,Agent 实际上仍然处于一种“半失明”的状态——它看不见真实业务里到底发生了什么。


所以,企业级 Agent 落地过程中,一个经常被低估但绕不开的问题是:怎么简单、可靠地为 Agent 构建多源、实时、可信的上下文?

围绕这个问题,我们尝试总结了五个关键判断。

信息完备性是前提:先让 Agent 看见真实业务世界

很多行业里的 Agent 之所以很难真正发挥作用,一个很重要的卡点是:它没有足够的信息感知能力。


这个道理其实并不复杂。无论是人还是 Agent,决策能力的上限,首先都取决于其对环境的观测能力。关键信息缺失,问题在逻辑上就可能无法被充分求解。换句话说,看不见,就很难判断对。

在信息论语境中,也可以用“完备性”(Completeness)来理解这个问题:如果观测环境所能提供的数字信息不具备足够完备性,那么很多任务在底层上就会变得不可解,或者至少无法稳定求解。


AI Coding 为什么更容易成功?因为程序员本来就在一个完整的数字环境中工作;而很多行业里的 Agent 之所以跑不起来,是因为它们只能看到很有限的数字切面。


所以,想让 Agent 真正进入业务现场,第一步不是继续调 Prompt、加 Skill、做记忆优化,而是先解决信息感知问题。

围绕这一点,EventHouse 提供了三类信息感知方式:


  • 主动监听(Polling / Monitoring): 通过长轮询或定时任务持续监控数据源,在数据变更发生时尽快完成捕捉;
  • 事件订阅(Event Subscription): 基于事件驱动架构(EDA),当业务事件发生时主动推送给 Agent,实现异步实时响应;
  • 挂载查询(Mount Query): 对于海量历史数据或归档冷数据,不做全量搬运,而是按需触发即席查询,让 Agent 像“挂载磁盘”一样按需访问。


它们共同解决的是同一个问题:让 Agent 不再停留在静态、片段化的信息环境中,而是能够持续接入真实业务的动态变化。

信息不是越多越好:要给 Agent 一本“图书馆馆藏目录”

有了信息感知能力,是不是问题就解决了?其实还没有。


虽然信息“完备性”很重要,但信息绝不是越多越好,也不是对物理世界做一份 1:1 的机械复制。


一方面,这本来就做不到;另一方面,也没有必要。人类进化出来的能力,并不是“接收所有信息”,而是会自动过滤掉大量无效信息,保持注意力聚焦。否则就会出现所谓“感官超载”:输入很多,但重点不清、关联混乱,最后反而无法形成有效判断。

Agent 也是一样。


还有一个更容易被忽视的问题:Agent 感知到的信息,不等于 Agent 真正拥有了这些信息。


比如给 Agent 挂了一个 PostgreSQL 的 MCP,它理论上可以知道数据库里有哪些表、字段和描述,也可以执行 SQL。但如果它每次都是等问题来了,才临时去查元数据、理解表结构、拼接查询,这种方式就像“考试前临时抱佛脚”:不仅速度慢、Token 消耗高,而且很容易产生语义偏差。


这里有一个很贴切的比喻:这就像给了你一座图书馆。书都在里面,但如果没有目录系统,你每次要用的时候都只能一层楼一层楼找、一排书架一排书架翻,效率会很低,也很容易找错。更进一步说,角落里一本书虽然归你所有,但如果你根本不知道它存在,那它在实际上就等于不存在。


所以,Agent 需要的不只是更多信息,而是一份可以快速定位、持续更新、统一理解的“图书馆馆藏目录”。

EventHouse 的做法,是通过统一 Catalog 管理 Agent 可使用的信息资产,提前记录并维护数据的语义、Schema、新鲜度、来源、适用范围、关联关系等。


这样一来,Agent 就能更清楚地知道:自己手里有哪些信息、每类信息意味着什么、需要时应该去哪里找、哪些内容值得优先使用。


如果说第一步解决的是“有没有上下文”,那么统一 Catalog 解决的就是“上下文能不能被正确消费”。

知识不等于“信息囤积”:要与 Agent 做好“知识对账”

即便拥有了统一 Catalog,问题也并没有完全解决。


我们不会因为一个人拥有一座图书馆,就认为他已经具备了判断力。同样,Agent 也不会因为接入了更多数据源,就自动变得更聪明。信息能否转化为知识,决定了 Agent 最终能否真正用好这些上下文。

从经典的 DIKW(Data-Information-Knowledge-Wisdom)模型来看:


  • 数据(Data): 客观事实的原始记录,是现实世界的符号化映射;
  • 信息(Information): 被赋予语境与结构的数据,用来回答“What”,即“发生了什么”;
  • 知识(Knowledge): 在信息基础上提炼出的规则、经验和方法,用来回答“How”,即“应该如何找到、理解和使用这些信息”;
  • 智慧(Wisdom): 在明确目标与价值取向的前提下,在复杂情境中,对知识进行综合运用和权衡,进而作出合理决策。


回到企业级 Agent 的上下文构建问题里,真正关键的不只是“拿到更多信息”,而是形成一套可复用、可解释、可审查的取数与用数机制。换句话说,知识的本质不是信息囤积,而是知道如何从多个数据源中准确找出所需信息,并在正确的语义边界内完成解释和行动。

围绕这一点,EventHouse 从两个方向来生成 Agent 可使用的“知识”:


  • 一方面,基于统一 Catalog 中的数据定义、Schema 描述和语义信息;
  • 另一方面,结合客户对 Agent 的业务设定,例如角色设定(SOUL)、Prompt、Gold Sample、Benchmark 等配置。


最终,这些内容会被组织成一份可读、可审查、可持续迭代的 Knowledge Wiki。


这份 Wiki 的作用很关键。它既能被 Agent 消费,也能被人类专家审阅,从而让人和 Agent 之间建立一种“知识对账”机制:确认 Agent 对取数逻辑的理解是否正确,而不是把所有逻辑都藏在一个黑盒背后。


这一步的价值在于:让 Agent 不只是“连上数据”,而是真正开始“理解数据”。

知识的每一次迭代,都是一次生产级变更

Agent 的知识不是静态资产,而是持续演化的生产资料。


人的成长需要知识升级,Agent 也是一样。上游数据源可能发生变化,Schema 可能更新,客户对 Agent 的角色和目标设定可能调整,运行中的反馈也会不断积累。这些因素都会推动 Agent 的知识体系持续演进。


问题在于:新的 Knowledge Wiki 一旦生成,能不能直接上线被 Agent 使用?

从软件工程实践看,大量生产故障都与变更有关。到了 AI 应用阶段,这个规律并没有消失,只是变更对象发生了变化:从代码、镜像、配置和基础设施,扩展到了 Prompt、Knowledge Wiki、工具与插件、模型能力、Agent 行为策略等。


虽然变更内容不同,但对稳定性的要求没变。企业级 Agent 同样需要一套完整的变更治理机制:发布前可回归、发布中可灰度、发布后可回滚。

基于这一思路,EventHouse 借鉴 CI/CD 的工程方法,将一次 Agent 更新封装为一个可管理的“制品”。这个“制品”可以包含 Prompt、Knowledge Wiki、Gold Sample、Benchmark 以及其他与 Agent 行为相关的关键配置,并围绕它构建完整的持续发布流程:


  • 发布前: 对多个“制品”进行 Benchmark 回归测试,选择更合适的版本发布;
  • 发布中: 采用蓝绿发布,监控并对比新旧“制品”的线上效果;
  • 发布后: 若新“制品”不达标,可从制品仓库快速回滚至历史版本。


这套机制既支持人工审核,也支持自动化演进。它的意义,不只是让 Agent 可以持续更新,而是让更新本身变成一件可治理、可验证、可恢复的事情。

“简单”与“可靠”不是附加项,而是 Agent 惠普的入场券

回看前面四点,无论是多源信息感知、统一 Catalog、知识 Wiki,还是制品化发布,本质上都在为两个目标服务:简单和可靠。

为什么这两个词如此重要?

一个很好的参照是电力普及的历史。电力刚出现的时候,并不是所有企业都能立刻用起来。问题并不在于它没有价值,而在于接入门槛太高:企业要自己买发电机、配维护人员、改造厂房布局,还要承担供电不稳定的风险。直到后来电网成为统一基础设施,工厂只需要一个标准插座,就能获得稳定电力,电气化才真正从少数人的能力变成全行业的能力。


今天的 AI,尤其是企业级 Agent,其实也正处在类似阶段。


很多组织并不是不想做 Agent,而是没有能力长期折腾数据集成、语义对齐、架构选型、变更治理和运维保障。 如果一套能力只能被少数 AI Native 团队掌握,那么它还谈不上真正普惠。只有当 Agent 接入业务世界这件事,变得像“接电”一样低门槛、标准化、可持续,AI 才有可能真正进入千行百业。

从这个意义上说,EventHouse 想做的,就是 AI 时代面向 Agent 的“标准插座”


  • 在广度上: 打通消息系统、数据库、对象存储、SaaS 服务等多源数据接入,让 Agent 获得足够的信息感知能力;
  • 在深度上: 统一对齐结构化、半结构化和非结构化数据语义,构建知识 Wiki;
  • 在流程上: 把数据集成、存储、查询、检索整合为一体化服务;
  • 在形态上: 提供 Serverless 体验,按量付费、秒级弹性、零运维。


其目标不是把每家企业都变成基础设施专家,而是尽可能降低 Agent 接入真实业务世界的门槛。

结语:企业级 Agent 的竞争,最终会落到上下文供给能力

AI 的下半场,比拼的不只是模型参数和推理能力,更是谁能以更低成本、更高可靠性,把真实世界持续、准确地搬进数字系统。


从软件工程享受到的“数字化红利”,到传统行业仍然缺失的“上下文基础设施”,企业级 Agent 的真正分水岭,正在从模型能力转向环境能力。谁能构建多源、实时、可信、可治理的上下文供给体系,谁就更有机会让 Agent 从“能演示”走向“能生产”。


这也是 EventHouse 持续投入的方向:把多源数据接入、语义管理、知识沉淀、变更治理和 Serverless 体验整合在一起,修一条从真实业务世界通向 Agent 的“高速公路”,让更多行业都能像插上电源一样,更轻松地获得 AI 带来的效率变革。

EventHouse 正在公测,欢迎一起探索下一代事件数据平台

如果你的团队正面临以下挑战,欢迎参与 EventHouse 公测,与我们共同探索企业级 Agent 的数据底座能力:


  • 数据沉睡: 实时事件数据已积累到海量规模,却难以被高效分析和利用;
  • 链路滞后: 跨数据源查询仍依赖复杂 ETL 流水线,分析结果总是滞后于业务;
  • 智能断层: 希望让 AI Agent 直接接入业务数据,实现自主分析与智能决策;
  • 落地门槛高: 希望以更低成本获得统一、实时、可治理的上下文供给能力。


让我们一起定义下一代事件数据平台!


👉 点击此处参与公测

https://eventbridge.console.aliyun.com/cn-chengdu/event-house...

👥 钉钉交流群:44552972

相关文章
|
12天前
|
人工智能 JSON 供应链
畅用7个月无影 JVS Claw |手把手教你把JVS改造成「科研与产业地理情报可视化大师」
LucianaiB分享零成本畅用JVS Claw教程(学生认证享7个月使用权),并开源GeoMind项目——将JVS改造为科研与产业地理情报可视化AI助手,支持飞书文档解析、地理编码与腾讯地图可视化,助力产业关系图谱构建。
23475 11
畅用7个月无影 JVS Claw |手把手教你把JVS改造成「科研与产业地理情报可视化大师」
|
16天前
|
人工智能 缓存 BI
Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
JeecgBoot AI专题研究 把 Claude Code 接入 DeepSeek V4Pro,跑完 Skills —— OA 审批、大屏、报表、部署 5 大实战场景后的真实体验 ![](https://oscimg.oschina.net/oscnet/up608d34aeb6bafc47f
5236 19
Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
|
17天前
|
人工智能 JSON BI
DeepSeek V4 来了!超越 Claude Sonnet 4.5,赶紧对接 Claude Code 体验一把
JeecgBoot AI专题研究 把 Claude Code 接入 DeepSeek V4Pro 的真实体验与避坑记录 本文记录我将 Claude Code 对接 DeepSeek 最新模型(V4Pro)后的真实体验,测试了 Skills 自动化查询和积木报表 AI 建表两个场景——有惊喜,也踩
6253 15
|
6天前
|
人工智能 缓存 Shell
Claude Code 全攻略:命令大全 + 实战工作流(完整版)
Claude Code 是一款运行在终端环境下的 AI 编码助手,能够直接在项目目录中理解代码结构、编辑文件、执行命令、执行开发计划,并支持持久化记忆、上下文压缩、后台任务、多模型切换等专业能力。对于日常开发、项目维护、快速重构、代码审查等场景,它可以大幅减少手动操作、提升编码效率。本文从常用命令、界面模式、核心指令、记忆机制、图片处理、进阶工作流等维度完整说明,帮助开发者快速上手并稳定使用。
1306 2
|
5天前
|
前端开发 API 内存技术
对比claude code等编程cli工具与deepseek v4的适配情况
DeepSeek V4发布后,多家编程工具因未适配其强制要求的`reasoning_content`字段而报错。本文对比Claude Code、GitHub Copilot、Langcli、OpenCode及DeepSeek-TUI等主流工具的兼容性:Claude Code需按官方方式配置;Langcli表现最佳,开箱即用且无报错;Copilot与OpenCode暂未修复问题;DeepSeek-TUI尚处早期阶段。
949 2
对比claude code等编程cli工具与deepseek v4的适配情况
|
1月前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
26208 65
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)

热门文章

最新文章