湖仓─体架构之前
1.安排专人专项负责训练数据从湖到仓的同步,工作量巨大;
2.训练数据体量大,导数耗时多,无法满足实时训练的要求;
3.新写SQL数据处理query,无法复用Hive SQL原有query。
异构数据平台融合:湖仓一体2.0升级发布
1.更快的业务洞察
-从提交工单开运湖5教郄湖通,实现分钟级打通数仓与数据湖
2.更广泛的生态对接
-从支持HDFS数据湖扩展支持阿里云DLF+OSS数据湖方案,全新支持Delta Lake.Hudi等主流数据湖格式
-与MC-Hologres存储打通与高速互访
-支持更多外部联邦数据源(RDS、HBase upeemimgs)
3.更高的性能
-全新支持智能Cache配合MaxCompute查淘加速(MCQA)功能。使数据湖查询性能提升10+倍以上
4.更好的综合数据开发与治理
-整合并筒化湖仓一体的开发和管理流程
-支持MaxCompute与EMR/CDH任务混合调度-支持跨湖仓的元数据采集。构建湖仓统一元数据视图
最佳实践背景
公司A使用云上关系型数据库RDS作为自己的业务库,同时使用阿里云EMR系统做日志数据采集。将数据汇集到云上对象存储OSS上,引入了数据湖常会用的存储机制 Delta Lake和Hudi为数据湖提供流处理、批处理能力。通过MaxCompute查询到实时数据,即时洞察业务数据变化。
第一步: RDS数据准备
第二步:DLF数据入湖
第三步:MaxCompute中查询数据
第四步:RDS中新增数据