Gartner:40% 的 AI Agent 项目注定被砍

简介: 造 Agent 越来越容易,但壁垒不在模型,在数据语义层。养虾热闹,虾能不能活取决于水质。

这一周的中国互联网圈只有一个话题:养虾。

所有云厂商集体下场发布自己的“养虾”方案。腾讯在深圳总部北广场摆摊帮人装虾,队伍排到马路对面。A 股 Agent 概念股连日大涨。9 岁小孩和 70 岁老人都在小红书上晒自己的虾。

热闹得很。

但就在本周,太平洋对岸的 Orlando,Gartner 在年度 Data & Analytics Summit 却上给出了两个不那么热闹的数字:

第一个:到 2027 年底,超过 40% 的 Agentic AI 项目将被取消——原因是成本失控、业务价值不清、风险管控不足。

第二个:在数以千计自称做“AI Agent”的厂商中,真正具备 Agentic 能力的大约只有 130 家

一边是全民的养虾狂欢,一边是全球最权威分析机构的冷水。如果你是企业里负责 AI 落地的负责人,可能已经把朋友圈的热闹切换到一个冷静的问题——自主 Agent 究竟该如何在企业真正落地?

今天这篇文章,我想把海外关于企业 AI 落地的一些资讯和思考分享给你。先从 Agent Washing 说起。

一、贴标签不是最可怕的

Agent Washing,字面意思是“Agent 漂洗”——把不是 AI Agent 的东西包装成 AI Agent。

这不是什么新鲜事。每一轮技术热潮都有自己的“Washing”版本:云计算时代 Forrester 专门造了“Cloud Washing”一词,批评厂商把传统托管服务贴上“云原生”标签。现在轮到了 Agent。

Gartner 分析师 Edgar Macari 在峰会上指出了几种典型形态:把传统 RPA 流程贴上“Agent”标签,把 Chatbot 对话框叫做“Agentic Analytics”,把规则引擎包装成“自主决策系统”。共同特征是:产品的实际能力没有变化,只是 PPT 上的关键词换了一轮。

如果 Agent Washing 只是这一层,那它只是甲乙方之间的智商博弈——聪明的买家能识别,市场会自我纠正。

真正让人担心的是另一种情形:企业确实在认真做 Agent 项目,用了真实的大模型、真实的 Agent 框架、真实的企业数据——但项目仍然会失败。 这不是“假 Agent”的问题,而是“真 Agent 跑在错误地基上”的问题。

二、89% 在投,28% 敢信

2026 年 2 月,企业数据分析平台 Alteryx 联合独立调研机构 Coleman Parkes 发布了一份覆盖全球 1400 名企业高管的调研报告。五个行业(银行、保险、制造、零售、公共部门),三大区域(美洲、欧洲中东非洲、亚太),结果非常刺目:

89% 的企业增加了 AI 投入。但只有 28% 信任 AI 的决策支持能力。只有 23% 成功把 AI 试点推到了生产环境。

三组数字,一个故事:钱花了,信任没建立,试点上不了线。

如果失败的项目都是假 Agent、PPT 工程,那倒还好——至少说明市场只是在洗牌。但 Alteryx 的报告指向了一个更棘手的诊断:信任崩塌的核心原因不是模型不好,而是企业在原始数据上直接叠加生成式 AI,缺乏业务上下文和语义治理。结果就是:AI 输出的答案会“幻觉”、会前后不一致、每次查询结果都不同。

想想看——你的分析 Agent 今天说“上季度华北毛利增长 12%”,明天换个问法说“华北上季度毛利下降 3%”。不是因为 Agent 在胡说,而是因为两次查询背后命中了不同的表、用了不同的计算逻辑、甚至“华北”的范围定义都不一样。

也许正因为此,报告指出 “49% 的高管把‘高质量、可访问、治理良好的数据’列为 AI 发挥全部潜力的首要条件。”不是更好的模型,不是更多的算力,是数据本身。

这就引出了一个必须回答的问题:Alteryx 说的“缺乏业务上下文和语义治理”,到底是什么意思?

三、那个被跳过的一层

让我把这个逻辑链拉直。

企业今天部署 Agent 的标准路径大致是:选一个大模型 → 套一个 Agent 框架 → 接上企业数据源 → 开始执行业务任务。

这条链路里,前两步已经不是瓶颈。

模型能力在过去两年突飞猛进——GPT-5、Claude Opus、Gemini 3 代表闭源前沿,GLM-5、Kimi K2.5、DeepSeek V3、Qwen 3.5 等开源模型也已逼近闭源水准,推理、规划、工具调用的能力不再是制约因素。

Agent 框架同样在快速收敛——LangChain、CrewAI 等社区项目持续迭代,OpenAI、Anthropic、Google 先后发布了各自的 Agent SDK,框架之间的共识越来越清晰:multi-agent 协作、自主规划与执行、A2A 互操作。

更值得注意的趋势是,Agent 的构建门槛正在急剧下降——一个 Agent 的能力边界可以用几个 Markdown 文件定义,技能可以热插拔,迭代周期从“月”缩短到“天”。

换句话说,“造 Agent”这件事正在被解决。但“接上企业数据源”这一步,在大多数企业里仍然约等于“把 Agent 接到一堆原始数据表上”。

问题就在这里。Agent 越容易造,这个问题就越致命——而且它的范围比大多数人意识到的要大得多。

很多人一想到“Agent 需要数据”,脑子里浮现的是一个分析 Agent 在查报表。但企业里不是只有分析 Agent。未来的企业架构正在走向 A2A——采购 Agent 在评估供应商时需要拉取历史合作数据和付款周期;客服 Agent 在处理投诉时需要查询客户的订单状态和服务记录;风控 Agent 在审批贷款时需要交叉验证多个数据源的信用指标。每一个 Agent,无论它的任务是分析、决策还是执行,在完成任务规划后都大概率需要调用企业数据来支撑下一步动作。

这就引出一个架构层面的根本问题:这些数据的语义标准在哪里?业务知识的上下文在哪里?是由一个集中的数据服务层统一提供,还是让每个 Agent 各自编写 SQL 去查询?

如果是后者——每个 Agent 自己理解数据、自己写查询——那你的企业里会出现 10 个 Agent 对“客户”有十种理解,对“收入”有 10 种算法,对“华北”有 10 种边界定义。这不只是分析报表对不上的问题,而是采购决策、客服承诺、风控判断可能全部建立在不一致的数据认知之上。

原始数据表是给工程师看的,不是给 Agent 看的。Agent 没有领域知识,没有内部人脉,没有“去问问财务那边是怎么定义的”这种能力。它能做的,只是读取它被授权访问的数据,按照它能理解的方式计算和推理。如果这些数据没有被“翻译”成结构化的、一致的、带业务含义的形式——换句话说,如果模型和原始数据之间缺少一层统一的“业务语义翻译和治理服务”——那不只是分析 Agent 的输出不可信,而是整个 A2A 协作网络的信任基础都不存在。

这不是一个“优化”问题,是一个“有和无”的问题。没有这层翻译,Agent 就是在猜。一个 Agent 猜错还能人工兜底,十个 Agent 同时猜错且互相依赖对方的结论——这才是 Alteryx 调研中 28% 信任率和 23% 上线率背后的真正结构性原因。

Gartner 在本周峰会的 Day 2 主题演讲中,实际上已经指出了答案:D&A 领导者应该通过“优先可解释性、构建透明洞察、用语义层确保可追溯性”来避免 AI 的黑盒问题。

注意——“语义层确保可追溯性”。这是 Gartner 在年度旗舰峰会上首次如此明确地将语义层定位为 AI 信任的基础设施。

四、三个问题:你的 Agent 在“裸奔”吗?

无论你的企业在做分析 Agent、客服 Agent、采购 Agent 还是全套 A2A 架构,我建议用三个问题做一次自测。它们分别对应语义层的三个核心能力:可追溯性、可治理性、一致性。

问题一:任何一个 Agent 做出的判断,你能追溯到它的数据依据和计算链路吗?

风控 Agent 拒绝了一笔贷款申请,理由是“该客户近 12 个月违约概率偏高”——这个判断调用了哪些数据源?“违约”的定义是逾期 30 天还是 90 天?“近 12 个月”是滚动窗口还是自然年?如果监管机构来查,你能给出一条从最终判断到源头数据的完整审计链路吗?

一个无法解释自己判断的 Agent,和一个“我感觉大概是这样”的实习生没有区别——只不过实习生你知道要审,而 Agent 的答案穿着一身自信的西装,反而更容易让人放松警惕。

问题二:当业务定义变化时,所有 Agent 能同步更新吗?

当“活跃用户”的定义从“7 天内登录”改成“7 天内有交易行为”,谁来更新所有相关 Agent 的认知?是让分析 Agent、客服 Agent、推荐 Agent 各自重新“学习”,还是有一个集中的语义注册中心,改一处、全局生效?

如果是前者——你有 10 个 Agent,可能 5 个用了新定义,5 个还在用旧的。分析 Agent 说这个用户是活跃的,推荐 Agent 认为他已经流失,客服 Agent 给他发了一封召回邮件。三个 Agent 都没有“错”,但合在一起就是一场混乱。

问题三:Agent 调用数据时,是从一个统一的语义服务获取,还是各自编写查询?

这是最关键的架构选择。Agent 需要数据支撑时,是向一个集中的语义层发起请求——由语义层负责理解业务含义、组装查询、约束口径——还是每个 Agent 自己理解数据库 schema、自己写 SQL?前者有标准、可预测、出了问题能定位。后者灵活,但每个 Agent 每一次取数本质上都是一次“即兴创作”——你无法保证两个 Agent 问同样的业务问题会得到同样的答案。

如果这三个问题一个都答不上来,你的 Agent 项目大概率在“裸奔”——不是说它跑不起来,而是说它跑出来的东西不可信、不可审、不可治理。 它就是 Gartner 说的那 40% 之一。

五、为什么是现在?

说到这里,有人可能会问:语义层不是一个新概念——为什么突然变得这么急迫?

因为数据的消费者变了。

在 BI 时代,数据的主要消费者是人。人有判断力、有容错能力。报表上的数字跟直觉有出入,人会去核实。语义不一致是个体验问题——烦人,但不致命。

在 Agent 时代,消费者变成了一个没有业务直觉、没有容错能力、但拥有无限执行力的程序。 而且不是一个,是一群——在 A2A 架构下,Agent 之间互相调用、互相依赖,一个 Agent 的错误输出会成为下一个 Agent 的错误输入,链式放大。当 Agent 拿到一个错误的定义,它不会停下来问“这对吗”。它会基于错误定义高效地产出一整套分析、决策甚至执行动作——全错的那种。

我们越来越确信一个判断:下一阶段 AI 采用的决定因素不是模型或工具,而是语义——谁控制 AI 系统用来推理的定义、上下文和关系。

Agent 把“语义一致性”从“有了更好”变成了“没有不行”。这是质变,不是量变。

行业正在用脚投票。本周 Gartner 峰会期间,至少四家公司密集发布了语义层产品:Strategy(原 MicroStrategy)发布 Mosaic Sentinel,提供语义层上的审计、血缘追溯和合规报告;Sema4.ai 宣布其语义层 GA,基于 OSI 标准;MetaKarta 展示了跨数据库和 AI 系统的统一语义中枢;Actian 更是推出了Steward Agent——用 Agent 自动构建语义层。

同一周、同一会场、四家厂商、同一赛道。这不是巧合。

语义层正在从数据团队的内部工具,变成 AI 系统的基础设施层。

六、Agent 的信任不是调参调出来的

回到开头的两幅画面。

一边是腾讯楼下排队装虾的长龙,是全民 Agent 狂欢。另一边是 Gartner 的 40% 取消预测,是 Alteryx 28% 的信任率,是 Edgar Macari 在台上冷静地说“Agentic Analytics 不适用于数据成熟度不够的场景”。

这两幅画面不矛盾。Agent 的方向是对的——问题在于,大多数组织还没有准备好让 Agent 站上去的那块地基。

你可以用最先进的模型、最优雅的 Agent 框架、最流畅的用户体验——但如果 Agent 背后的数据层是一堆未经治理的原始表、一个“谁都能改但没人知道谁改了什么”的混乱状态,那你的 Agent 项目就是建在沙滩上的高楼。

Agent Washing 提醒我们的不只是“别信厂商吹牛”——这个教训不需要 Gartner 来教。它真正应该引发的追问是:撕掉那些假标签之后,我们自己认真在做的 Agent 项目,地基打好了吗?

养虾很热闹,但虾能不能在你的池塘里活下来,取决于水质。

Agent 的信任不是调参调出来的,不是换模型换出来的。它是治理治出来的。

语义层是起点,不是终点。下一个问题是:当数据语义的“定义”标准化加速推进时,谁来解决“执行”——也就是把定义翻译成每一次精确查询的那一步?这正是 Aloudata 通过语义编织技术在实践的方向——用动态数据服务把语义层从“定义”推进到“执行”。

引用索引

  1. Gartner 预测超过 40% 的 Agentic AI 项目将在 2027 年底前被取消 — 来源:Gartner Newsroom
  2. Gartner D&A Summit 2026 Day 2:用语义层确保可追溯性,避免 AI 黑盒 — 来源:Gartner Newsroom
  3. Gartner 警告“Agent Washing”现象,真正有 Agentic 能力的厂商约 130 家 — 来源:InfotechLead
  4. Gartner 提出 AI 价值实现三大支柱 — 来源:Gartner Newsroom
  5. Alteryx × Coleman Parkes 全球调研:89% 企业增加 AI 投入,仅 28% 信任 AI 决策支持 — 来源:PR Newswire
  6. Alteryx 报告:49% 高管将高质量数据列为 AI 首要条件,仅 23% 成功将试点推向生产 — 来源:Alteryx
  7. Strategy 发布 Mosaic Sentinel 语义层统一治理框架 — 来源:BusinessWire
  8. Meta Integration 展示 MetaKarta Semantic Hub — 来源:PR Newswire
  9. Actian 发布 AI Analyst + Steward Agent — 来源:PR Newswire
  10. OpenClaw GitHub Star 突破 26 万,腾讯深圳总部排队安装 — 来源:36氪钛媒体
  11. 字节跳动火山引擎发布 ArkClaw,国产厂商集体下场”养虾” — 来源:21经济网

相关文章
|
7天前
|
人工智能 安全 Linux
【OpenClaw保姆级图文教程】阿里云/本地部署集成模型Ollama/Qwen3.5/百炼 API 步骤流程及避坑指南
2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
4936 7
|
15天前
|
人工智能 JavaScript Ubuntu
5分钟上手龙虾AI!OpenClaw部署(阿里云+本地)+ 免费多模型配置保姆级教程(MiniMax、Claude、阿里云百炼)
OpenClaw(昵称“龙虾AI”)作为2026年热门的开源个人AI助手,由PSPDFKit创始人Peter Steinberger开发,核心优势在于“真正执行任务”——不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码等,且所有数据本地处理,隐私完全可控。它支持接入MiniMax、Claude、GPT等多类大模型,兼容微信、Telegram、飞书等主流聊天工具,搭配100+可扩展技能,成为兼顾实用性与隐私性的AI工具首选。
20716 113
|
10天前
|
人工智能 API 网络安全
Mac mini × OpenClaw 保姆级配置教程(附阿里云/本地部署OpenClaw配置百炼API图文指南)
Mac mini凭借小巧机身、低功耗和稳定性能,成为OpenClaw(原Clawdbot)本地部署的首选设备——既能作为家用AI节点实现7×24小时运行,又能通过本地存储保障数据隐私,搭配阿里云部署方案,可灵活满足“长期值守”与“隐私优先”的双重需求。对新手而言,无需复杂命令行操作,无需专业技术储备,按本文步骤复制粘贴代码,即可完成OpenClaw的全流程配置,同时接入阿里云百炼API,解锁更强的AI任务执行能力。
6588 2
|
11天前
|
人工智能 安全 前端开发
Team 版 OpenClaw:HiClaw 开源,5 分钟完成本地安装
HiClaw 基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。
7946 6
|
13天前
|
人工智能 JavaScript API
保姆级教程:OpenClaw阿里云/本地部署配置Tavily Search skill 实时联网,让OpenClaw“睁眼看世界”
默认状态下的OpenClaw如同“闭门造车”的隐士,仅能依赖模型训练数据回答问题,无法获取实时新闻、最新数据或训练截止日期后的新信息。2026年,激活其联网能力的最优方案是配置Tavily Search技能——无需科学上网、无需信用卡验证,每月1000次免费搜索额度完全满足个人需求,搭配ClawHub技能市场,还能一键拓展天气查询、邮件管理等实用功能。
7745 5
|
6天前
|
JavaScript Linux API
保姆级教程,通过GACCode在国内使用Claudecode、Codex!
保姆级教程,通过GACCode在国内使用Claudecode、Codex!
3728 1
保姆级教程,通过GACCode在国内使用Claudecode、Codex!

热门文章

最新文章