2025年云栖大会「AI时代的数据库变革升级与实践」专场,阿里云瑶池数据库团队联合哔哩哔哩、小鹏汽车、NVIDIA等企业的技术专家,围绕Data+AI融合趋势下的数据库架构创新与场景落地展开深度分享。论坛系统呈现了云原生数据库在多模态处理、湖库一体化、具身智能、企业级Agent等方面的最新进展,全面展示瑶池数据库面向AI原生应用的技术演进和最佳实践。
01、数据库Data+AI新范式:构建AI原生时代的数据底座
阿里云智能集团数据库产品事业部产品管理与技术架构部负责人 王远
阿里云智能集团数据库产品事业部产品管理与技术架构部负责人王远在题为《数据库Data+AI新范式,释放企业数据价值》的演讲中,系统阐述了瑶池数据库在AI时代的产品布局和技术演进。
他指出,以“多模态AI数据底座+智能数据管理平台”为核心,阿里云瑶池数据库正致力于打造AI就绪的数据底座。其中,云原生数据库PolarDB基于CXL技术实现资源全面解耦、全栈池化,云原生能力大幅提升,成功突破性能瓶颈;PolarDB、AnalyticDB、Lindorm、RDS等系列产品均已深度融合AI能力,打造统一、开放、多模的一体化架构。
此外,王远还分享了全新发布的「瑶池数据库ApsaraDB Agent」,数据管理平台能够为用户提供一站式、不间断的云数据库智能体,帮助用户自助解决90%以上的数据库产品咨询问题,驱动企业数据工程迈向智能化新阶段。通过与通义大模型的深度融合,瑶池数据库可帮助企业快速构建专属的数据智能体,让数据开发与运维像对话一样简单,助力用户轻松驾驭数据。
02、行业最佳实践:Data+AI融合的典型落地场景
阿里云智能集团数据库产品事业部解决方案与专家服务部负责人 李圣陶
阿里云智能集团数据库产品事业部解决方案与专家服务部负责人李圣陶在《数据库Data+AI行业最佳实践》主题分享中,系统总结了过去一年瑶池数据库在千行百业中的典型应用路径。他指出,当前企业正从“用上大模型”迈向“用好大模型”,核心在于将AI能力深度嵌入业务流程。基于此,瑶池数据库已在四大场景中形成可复制的最佳实践:
一是知识问答类场景,涵盖智能搜索、ChatBI、智能客服等,本质是对外部世界和企业内部知识的压缩与高效存取。通过RAG技术结合PolarDB向量引擎,实现端到端的一站式知识库构建与高精度召回。
二是数据深度挖掘场景,典型如智能驾驶与用户行为预测。以智驾为例,车辆采集的海量视频帧经ADB处理后,结合Lindorm进行多模态存储与特征标注,最终训练出更安全可靠的决策模型。
三是开发者生态提效场景,通过PolarDB深度集成Supabase,实现数据库自动建表、权限配置,让AI智能体也能直接使用数据库;DMS结合Dify构建低代码工作流,帮助个人与团队快速搭建专属Agent。
四是智能体应用落地场景,Data Agent可自动分析百万级数据库实例的元数据,辅助DBA探索数据洞察;DAS Agent则沉淀10万+条运维经验,实现根因诊断、性能优化建议的自动化输出,将故障处理从小时级缩短至分钟级。
李圣陶强调:“瑶池数据库始终秉承‘让业务持续在线,让数据价值不断放大’的理念。在AI时代,我们不仅是数据的承载者,更是智能创新的推动者。”
03、PolarDB湖库一体化:打造AI时代的数据中枢
阿里云智能集团数据库产品事业部资深产品专家 贾新华
阿里云智能集团数据库产品事业部资深产品专家贾新华在题为《AI时代,云原生数据库的湖库一体化演进》的演讲中,系统阐述了PolarDB面向AI应用的整体架构升级路径。他指出,随着多模态数据处理需求激增,传统数据库亟需向“库湖一体化”演进。为此,PolarDB底层文件系统升级为PFS2.0,兼容POSIX、S3、NFS等多种协议,支持非结构化数据直接写入;计算层新增搜索节点、向量引擎与AI节点,集成Ray、vLLM、SGLang等开源框架并完全托管;借助CXL技术实现三层解耦,单实例内存可扩展至16TB,显著提升KVCache性能。
同时,推出Limitless海量元数据管理方案,扩缩容无需数据迁移,支持冷热自动分层。向量引擎支持万维向量检索,兼容MySQL与ElasticSearch生态;RAG能力通过SQL驱动一站式完成文本切片、Embedding、检索与重排序,极大降低开发门槛。
哔哩哔哩资深数据科学家 强朔
随后,哔哩哔哩资深数据科学家强朔在演讲中介绍了基于通义千问和PolarDB for AI构建的“基于LLM的全域内容理解新框架”。他表示,在B站这样的内容社区平台,对各体裁视频、图文、直播等内容进行准确的商业化标签理解,已成为提升广告投放确定性、优化营销效果的核心基础设施和关键突破口。
通义千问和PolarDB for AI基建,作为多模态内容理解的LLM基座,充分发挥其在语言、视觉、音频等多模态信息处理上的强大泛化能力,可以覆盖全部的内容体裁和应用场景。PolarDB的AI节点也在模型推理方面的便利性和效率展现了突出优势,叠加由商业化数据科学团队自研、具备B站特色的多模态模型,一起构建出了B站商业化的全域内容理解新框架,应用在B站商业化的各个产品中,为品牌和商家提供了营销洞察、优化、策略、度量的科学工具和有力抓手。
04、具身智能仿真服务:破解机器人仿真数据、算力与运维之困
阿里云智能集团数据库产品事业部资深技术专家 尹烨
阿里云智能集团数据库产品事业部资深技术专家尹烨在题为《具身智能仿真服务:破解机器人仿真数据、算力与运维之困》的演讲中,深入剖析了具身智能的三大核心挑战:数据不足、算力调度复杂、多模态处理效率低。针对这些痛点,AnalyticDB提供从数据采集、处理、仿真测评到推理上线的全链路一体化解决方案:支持多种机器人协议和数据格式,无缝集成NVIDIA Isaac Sim/Lab和Cosmos;结合Ray分布式计算与云原生弹性算力,实现合成数据生成与仿真训练的闭环协同;通过创新的流式Pipeline多模态处理引擎实现数据不落盘处理,多模态处理效率较传统方案提升30倍以上,GPU利用率长期稳定在90%以上。
该方案已成功赋能多个领先人形机器人客户,依托云上开发环境、开箱即用的采集/处理/仿真服务与弹性算力资源,显著加速了从研发到落地的全流程效率。此外,云原生多模数据库Lindorm,对接各类计算引擎,可以提供视频解包、编解码、元数据管理、标注存储等能力,满足行业客户的多样化场景需求。
NVIDIA互联网解决方案架构高级总监 陈川
在技术生态协同方面,NVIDIA互联网解决方案架构高级总监陈川在《释放AI的物理潜能:阿里云AnalyticDB协同英伟达驱动具身智能新范式》的主题演讲中,系统阐述了AnalyticDB相关的Physical AI技术架构。他指出,Physical AI在机械臂、自动驾驶、智慧工厂等场景面临真实数据稀缺的共性挑战。为此,英伟达构建三大系统:基于DGX的模型训练系统、端侧嵌入式部署平台,以及以Omniverse和Cosmos为核心的仿真验证环境。其中,Isaac平台提供完整的感知、抓取、端到端VLA模型与仿真测试能力;Cosmos作为物理世界模型,包含Predict(预测下一步视频)、Transfer(叠加3D地图生成精确数据)和Reasoning(判断结果合理性)三大模块,可将原始遥操数据扩展百万倍用于训练。例如,通过GROOT-Dreams路径,10个基础操作可生成超百万条高质量合成数据。
值得注意的是,该流程中的海量视频预处理任务,在AnalyticDB与NVIDIA的深度协同下,处理时间从3.4年大幅压缩至40天。陈川特别强调,AnalyticDB与NVIDIA的技术融合实现了仿真环境、数据处理与存储的全链路打通,为开发者构建端到端闭环的解决方案。
05、实时多模知识库:赋能企业级Agent持续在线
阿里云智能集团数据库产品事业部高级产品专家 陈茏久
阿里云智能集团数据库产品事业部高级产品专家陈茏久在题为《构建实时多模知识库,助力企业Agent“持续在线”》的演讲中,介绍了DTS+ADB PG构建企业级知识库的技术方案。会上,他指出该方案聚焦“企业级、实时、多模”特性,DTS升级为AI就绪通道,支持从钉钉、飞书、OSS等源实时采集非结构化文档,并在传输过程中完成解析、切片与向量化,实现端到端转化。ADB-PG支持Graph RAG,可构建知识间的语义关联图谱,避免召回漂移;结合全文+向量融合检索,提升准确率。
财联社应用该方案后,热点事件RAG召回准确率超95%,响应速度提升3倍以上。系统支持Serverless弹性伸缩,负载高低自动扩缩容,保障成本可控;同时提供AZ容灾、GPU资源热备、灾难恢复等企业级能力。该方案也支撑通义百炼知识库构建流程,广泛应用于金融资讯、政策解读、智能客服等场景。
06、AI Agent的记忆系统:开启智能驾驶的经验传承
阿里云智能集团数据库产品事业部产品专家 肖冰
阿里云智能集团数据库产品事业部产品专家肖冰在题为《当AI Agent拥有记忆,开启智能驾驶的“经验传承”时代》的演讲中,指出受限于大模型上下文长度,构建长期记忆系统至关重要。会上,他介绍Tair与Lindorm通过schemaless设计与分布式架构,轻松支持亿级用户记忆存储。内置AI引擎结合记忆提取框架,实现用户交互明细的自动化压缩与关键点提取,并构建文本、向量、图索引联合检索体系。Tair负责高频访问的近期记忆,Lindorm承载海量历史记忆,二者协同实现高性能与高性价比平衡。
该方案已应用于理想汽车OTA 7.4长期记忆系统,支持车辆知识、道路法规、实时新闻的AI搜索,以及个性化驾驶习惯复现。通过全文+向量+图索引融合召回,端到端召回率达99.95%以上,P99延迟低于5ms,且具备异地多活能力,真正让AI Agent具备“经验传承”能力。
07、KVCache × TensorRT-LLM:释放大模型推理潜能
阿里云智能集团数据库产品事业部高级技术专家 王正恒
阿里云智能集团数据库产品事业部高级技术专家王正恒在题为《KVCache:AI时代的分布式动态分级缓存》的演讲中,指出KVCache配置难题在于延时、吞吐与成本难以兼顾。会上,他介绍Tair KVCache首次提出Pareto最优实现方法:通过仿真模拟用户Prompt生命周期,结合成本中心实时分析与智能调度,自适应完成容量、介质与淘汰策略配置,无需人工干预。系统支持本地内存、远端mempool、持久化存储三级缓存池化管理,结合算力分时弹性与缓存预热技术,满足波峰波谷下的性能与成本双重优化。实测显示,推理吞吐可达冷启动重算的8倍。该方案已与NVIDIA TensorRT-LLM深度集成,在代码补全、多轮对话、弹性冷启动等场景广泛验证,显著降低显存压力与计算开销,实现推理效率与扩展性的全面提升。
NVIDIA GPU计算专家团队经理 季光
随后,NVIDIA GPU计算专家团队经理季光在题为《NVIDIA TensorRT-LLM助力Tair KVCache性能领先》的演讲中,深入阐释了TensorRT-LLM推理引擎的核心优势。会上,他指出随着大模型上下文长度持续增长,KV Cache已成为影响推理延迟与吞吐的关键瓶颈。TensorRT-LLM具备高效易用、性能极致优化与接口灵活定制三大特性,通过量化、PD分离、并行优化、投机采样等技术,显著提升文本生成效率,并降低显存占用。在与阿里云Tair KVCache的深度集成中,TensorRT-LLM可直接调用分布式缓存资源,实现跨节点KV缓存共享,避免重复计算,进一步释放GPU算力。该联合方案已在Agentic AI应用、多轮对话、弹性冷启动加速等场景开展广泛验证,实现推理性能显著提升与总体拥有成本大幅下降,为AI原生应用提供了高性能、低成本的推理基础设施支撑。
08、智能运维新范式:从被动响应到主动赋能
阿里云智能集团数据库产品事业部资深技术专家 汪晟
阿里云智能集团数据库产品事业部资深技术专家汪晟在题为《AI时代数据库使用与运维新范式》的演讲中,介绍了瑶池数据库如何融合大模型与AI Agent重构数据使用与运维体验。会上,他指出Data Agent可代理完成数据探索与分析任务,释放用户精力;产品Agent作为全天候顾问,实时响应选型与使用咨询;DAS Agent基于10万+条专家运维经验构建运维大模型,为RDS、PolarDB、Tair、MongoDB等产品提供360度分析报告、异常诊断、SQL优化与风险预警,让用户轻松获得专业运维能力。
小鹏汽车运维数字人项目负责人 林晓靖
最后,小鹏汽车运维数字人项目负责人林晓靖在题为《智能运维赋能高并发车联网数据库》的演讲中,分享了基于DAS Agent构建“运维数字分身”的实践经验。会上,她介绍面对80万用户带来的高并发、多地域运维压力,小鹏汽车推动数据库从被动响应向主动赋能转变。通过DAS Agent实现跨云统一管控与自动化容量管理,在慢SQL治理中形成“发现-指派-闭环”全生命周期管理,AI自动识别问题类型并生成优化建议。实际应用表明,DAS Agent显著提升诊断效率与优化准确性,降低人工干预成本,有效保障系统稳定性,提升团队协作效率。该实践验证了AI Agent在复杂生产环境中落地的可行性,为行业提供了可复制的智能化运维路径。
演讲回放
扫码观看分论坛演讲回放