4月9日阿里云AI势能大会上,阿里云瑶池数据库发布重磅新品及一系列产品能力升级。「推理加速服务」Tair KVCache全新上线,实现KVCache动态分层存储,显著提高内存资源利用率,为大模型推理降本提速。
此外,阿里云瑶池核心产品已全面支持In-DB AI,通过内嵌“模型即算子”能力,让数据距离AI更近,实现用户数据内循环、不出域,显著提升推理效率。云原生数据库PolarDB for AI功能升级,通过SQL语句即可调用内置大模型,为用户提供开箱即用的AI能力。
阿里云副总裁、数据库产品事业部负责人李飞飞
“AI已进入应用爆发阶段,而数据正是企业级AI应用的核心资产。”阿里云副总裁、数据库产品事业部负责人李飞飞表示。“面向多模态的数据处理需求,阿里云瑶池数据库作为承载数据的AI基础设施,旨在为用户提供更普惠、易用的一站式多模数据管理平台。在Data+AI的驱动下,我们将助力用户进一步简化并降低AI应用的开发成本,显著提升计算效率,让数据价值得到充分释放。”
会上,阿里云发布全新「推理加速服务」Tair KVCache,专为大模型推理场景量身打造,通过构建“显存—内存—存储”三级缓存体系,实现“分级缓存架构”升级,解决了推理中的显存瓶颈问题。在提升计算效率的同时,Tair KVCache显著扩展上下文长度,为万亿参数模型的高效推理提供技术保障,构建以缓存为中心的大模型Token超级工厂。
针对AI应用需求的爆发式增长,阿里云瑶池数据库的核心产品已全面集成In-DB AI能力。据权威机构Gartner预测,2028年80%的生成式AI业务应用将在企业现有的数据管理平台上开发,从而将实施复杂性和交付时间缩短50%。瑶池数据库通过内嵌“模型即算子”(Model as an Operator)能力,让AI距离数据更近。用户无需移动数据,即可在数据库内部完成模型部署至推理的全流程,实现用户数据内循环、不出域,显著提升推理效率并降低开发门槛。
面向企业级智能应用开发,阿里云瑶池还推出了一站式RAG和MCP(模型上下文协议)支持,简化知识问答、智能推荐等场景的开发流程。
结合大模型与生成式AI技术,阿里云瑶池旗下的一站式数据管理平台DMS为用户提供了一套面向Data Agent的全链路创新框架。该框架以企业数据资产为核心,依托数据库提供的异构算力资源实现专属模型高效部署,并通过瑶池生态提供的多模态数据准备能力与数据链接服务,助力用户构建从数据治理到模型应用的Data Agent全链路部署。
DMS现已深度集成主流LLMOps平台(Dify、百炼等),支持用户基于业务流程对Data Agent进行场景化编排。目前,该方案已服务超100家企业,在CRM、智能客服、质检、企业大脑、Chat2DB等场景中落地。同时,DMS还为Data Agent瑶池生态提供了效果自调优及模型SFT工具,实现Data Agent的可持续演进,旨在帮助用户在Gen AI时代构建下一代智能数据服务范式。
哔哩哔哩Bilibili猫耳事业部Al Infra资深工程师陈刚
哔哩哔哩Bilibili猫耳事业部Al Infra资深工程师陈刚在大会演讲时分享道:
“阿里云DMS+AnalyticDB解决方案为猫耳FM提供智能问数服务,通过自然语言实现高效取数、分析及报表生成,准确率达95%+,大幅降低了我们的数据使用门槛。其知识管理服务自动解析历史操作及字段注释,冷启动效率提升5倍,知识维护成本下降90%,并结合大模型灵活优化场景适配。
该方案助力猫耳FM实现数据交付效率提升3倍,存储传输成本优化,赋能主播与运营人员自助分析,实现高性价比的实时数据服务能力。”
云原生数据库PolarDB在会上发布内置大模型的PolarDB for AI功能,植入通义千问和DeepSeek全系产品,同时支持用户自定义模型,助力个人和企业开发者快速部署并上线AI应用。借助PolarDB AI节点,用户可直接通过SQL语句调用内置大模型,完成复杂分析任务,并在数据库内进行搜索和推理优化。其在线推理吞吐量可提升10倍以上,显著降低用户的部署成本。据悉,目前PolarDB AI节点已助力100余家大型客户提高在线推理效率,大幅提升业务效果。
目前,由Data+AI驱动的阿里云瑶池数据库已在政务、金融、互联网、汽车、游戏等行业的核心业务系统落地,服务于月之暗面Kimi智能助手、MiniMax、哔哩哔哩、小鹏汽车、理想汽车、零跑汽车、雅迪、宝宝树等知名企业,通过AI助力业务加速创新升级,共创AI时代的新未来。