在2024年云栖大会「数据库与AI融合」专场,来自NVIDIA、宇视科技、合思信息、杭州光云科技、MiniMax的知名企业代表和阿里云瑶池数据库团队的产品&技术专家,深入真实场景实践,共同分享了Data+AI全面融合的最新技术进展。
阿里云智能集团数据库产品事业部AnalyticDB PostgreSQL及生态工具部负责人周文超在演讲中重磅发布Data+AI一站式数据智能DMS的跨云统一开放元数据OneMeta和智能开发OneOps,包含一站式Data+AI开发Notebook和Copilot、AI模型服务MLOps等最新能力。深度解析如何借助跨云湖仓一体化以及数据智能一体化,帮助企业构建跨云Data Mesh革新架构,实现数据无缝流动,智能计算和治理的敏捷落地,赋能企业快速步入AI驱动的时代。
阿里云瑶池推出《云数据库运维》技术图书
此外,阿里云瑶池数据库团队重磅推出《云数据库运维》技术图书。该书是面向云数据库用户的专业书籍,覆盖从入门到精通的全面指导。书中从基本概念入手,逐步介绍云计算时代下,数据库运维的核心原理、平台构建、生命周期管理、安全体系、使用策略、管理与稳定性保障、问题诊断、性能优化、灾难恢复、云数据仓库及NoSQL数据库运维实践,以及数据高速通道实现和智能运维趋势。无论是数据库管理员、开发者还是IT经理,本书均能给予宝贵见解和实用操作指南。
随后,宇视科技运维部部长陈津扬介绍了宇视通过DMS跨云、多模数据的统一管理,开放、兼容的元数据服务,Data+AI统一数据治理能力构建新一代数智管理平台,并详细介绍平台中数据地图、数据治理、数据合规、Data Copilot、Data Fabric等核心功能和技术能力。借助数据管理平台DMS,宇视实现管理成本下降90%、平台稳定性提升10倍、开发效能提升20倍。
AI时代下的PolarDB:In-DB一体化模型训练与推理服务
在《AI时代下的PolarDB:In-DB一体化模型训练与推理服务》主题分享中,阿里云智能集团数据库产品事业部高级产品专家贾新华介绍了PolarDB积木架构,通过启动若干个AI节点获得In-DB一体化的模型训练和推理服务。
PolarDB支持基于交易数据构建自定义模型(MLOps)和直接使用内置的通用模型(如ChatBI、通义千问、RAG等)。MLOps通过SQL即可完成基于数据库内数据的模型训练、评估和推理,降低了AI使用门槛和成本,如某游戏公司基于用户行为日志数据训练消费预测模型,广告投量效率提升50%+。ChatBI支持客户基于结构化和非结构化数据建立自己的知识库和智能问答机器人,如雅迪电动车基于ChatBI开发面向一线销售的智能营销机器人,一线销售以自然语言问询库存、供应链、营销等实时数据,极大地提升了一线销售的工作效率。
合思信息数据库研发总监刘桐烔在演讲中提到:PolarDB for AI赋能对话机器人,能够显著提升客户响应效率。合思在业务部署的过程中需要提前收集客户安全问卷数据,以前都需要运营人工填写,工作量大。合思信息通过Polar for AI的文本向量化算子、聚类算子,自动填写答案,让智能机器人成为填写问卷的主要力量,提升效率,释放人力。同时,合思信息利用PolarDB for AI的向量检索、全文检索能力和大语言模型推理能力,不依赖其他外部组件的情况下就搭建一套RAG系统,在确保数据安全的同时,通过提升其检索和智能分析能力,使得知识充分释放潜在价值,工单响应时长缩短85%。
AnalyticDB PostgreSQL版:Data+AI 时代的企业级数据仓库
阿里云智能集团数据库产品事业部资深技术专家印才华分享了AnalyticDB高性能实时数仓的整体架构,一站式RAG解决方案的核心技术,In-Database AI/ML的应用场景以及最新特性能力,全方位解析了Data+AI时代的企业级数据仓库AnalyticDB提供数据分析和RAG解决方案背后的关键能力和核心技术。
光云科技CTO王祎介绍了AnalyticDB PostgreSQL在电商SaaS领域实时数仓和AI的最佳实践。他表示:“AnalyticDB承载了光云海量数据的实时在线分析,为各个业务线的商家提供了丝滑的数据服务,实时物化视图、租户资源隔离、冷热分离等企业级特性,很好的解决了SaaS场景下的业务痛点,也平衡了成本。同时也基于通义+AnalyticDB研发了企业级智能客服、智能导购等行业解决方案,借助大模型和云计算为商家赋能。”
Lindorm:基于多模数据服务的一站式智能检索基础设施
阿里云智能集团数据库产品事业部NoSQL产品负责人张为进行了题为《Lindorm:基于多模数据服务的一站式智能检索基础设施》的精彩演讲,回顾和分析了AI大模型如何推动智能检索的发展,讨论了构建智能检索RAG系统所具备的技术特点和挑战,介绍了Lindorm一站式智能检索基础设施,通过提供一站式的数据清洗、多路召回、全文检索、向量检索、AI推理等特性,帮助AI应用开发者构建基于大语言模型的对话类智能检索应用。
MiniMax AI Infra技术专家焦恩伟发表了题为《MiniMax Data Infra在AI场景下的探索》的深刻演讲。作为一家领先的通用人工智能科技公司,MiniMax自研了万亿参数的MoE文本大模型、语音大模型和图像大模型,展现出其在AI技术领域的雄心。基于这些大模型,MiniMax推出了如星野、海螺AI等原生应用,并为企业和开发者提供开放平台的API服务。
Tair:基于KV缓存的推理加速服务
MiniMax基础架构基于Lindorm海量规模的存储能力、高性能的全文-向量双路召回能力构建了新一代的AI搜索基础设施,与数据湖一起构建了一条训练与搜索统一的数据基础设施,是模型训练和对齐过程中的关键环节。
MiniMax AI Infra技术专家焦恩伟发表了题为《MiniMax Data Infra在AI场景下的探索》的深刻演讲。作为一家领先的通用人工智能科技公司,MiniMax自研了万亿参数的MoE文本大模型、语音大模型和图像大模型,展现出其在AI技术领域的雄心。基于这些大模型,MiniMax推出了如星野、海螺AI等原生应用,并为企业和开发者提供开放平台的API服务。
MiniMax基础架构基于Lindorm海量规模的存储能力、高性能的全文-向量双路召回能力构建了新一代的AI搜索基础设施,与数据湖一起构建了一条训练与搜索统一的数据基础设施,是模型训练和对齐过程中的关键环节。
Tair:基于KV缓存的推理加速服务
NVIDIA GPU计算专家团队高级经理季光博士带领大家深入了解NVIDIA TensorRT-LLM在推理加速上的工作,介绍了TensorRT-LLM的高性能特点,支持多模型,Weight/Activation/Cache的量化,Tensor和Pipeline的并行调度,In-flight Batching服务化等多种特性,同时提供开箱即用的能力。
*注:基于Qwen2 7B模型在长上下文场景构造实验环境数据测试,最终效果以实际产品和场景测试数据为准。
数据库自治服务DAS:云数据库高效运维的最佳拍档
在《数据库自治服务DAS:云数据库高效运维的最佳拍档》主题演讲中,阿里云智能集团数据库产品事业部产品专家王斌重点介绍了数据库自治服务DAS的全新定位,通过模型学习人工运维经验,构建数据库智能运维大模型,实现数据库自修复、自防护、自优化的运维云服务,并全新发布了数据库安全检测与运维能力。