增量同步ODPS数据解决方法

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生数据仓库AnalyticDB MySQL版,基础版 8ACU 100GB 1个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

解决方法
目前ODPS到分析型数据库之间的数据同步是离线批量同步的,不支持实时同步增量的情况。如果用户有增量同步的需求,可以考虑以下方案:
1、如果用户的数据是不更新只累加的数据,比如日志数据,可以在分析型数据库里创建表的时候设置二级分区。每次增量的数据导入到分析型数据库的一个二级分区里。
2、用户可以在ODPS里就把增量更新后的结果数据放在一个表(分区)里。这样同步只处理结果数据的全量同步,增量操作在ODPS里已经做好了。
3、用户使用实时更新的功能,自己使用SQL更新数据。这样相当于用户完全绕过了ODPS,自行实现了数据的同步。另外这样做,需要在创建表的时候设置为实时更新表。
原理解读
如果一个表是实时写入的表,则分析型数据库会支持对该表的单条数据进行Insert/Delete操作,不过由于分析型数据库不支持事务,对于Insert/Delete命令,有一些限制。
在分析型数据库中Insert语句的语法是:
INSERT [IGNORE]
INTO tbl_name (col1,col2...)
VALUES (value1, value2...), (value1, value2...)....
在分析型数据库中,能够实时插入的表一定要定义主键或组合主键,和MySQL有一个非常大的不同是,分析型数据库在进行数据插入时,若发现同主键的数据时,默认执行覆盖行为。若使用insert ignore语法,则在发现有同主键的数据时,丢弃新插入的数据,保留原有数据。但是无论如何,在主键冲突时分析型数据库无法直接返回错误给insert的执行方。
在分析型数据库中的Delete语句的语法是:
DELETE FROM tbl_name WHERE where_definition
where_definition中暂不支持函数定义。
对分析型数据库是数据插入和删除操作,原则上在分析型数据库操作返回成功后一分钟内可查(但不保证一定是一分钟的数据可见延迟),不过在表刚刚创建时的十分钟内,数据可能无法查询。
Delete语句执行后,数据会不可查询到,但不会在物理上立刻删除,原则上24小时内会自动清除掉,如果删除了大量数据想立刻生效,可以执行:
optimize table ;
执行成功一段时间后,物理上数据会被删除。
关于最终一致性:对于主键相同的数据的多次变更,分析型数据库会遵循分析型数据库返回语句执行成功的顺序进行;对于主键不同的数据的两次变更,分析型数据库不保证先执行的变更会比后执行的变更更优先的查询到。但是当业务端暂停数据写入的若干时间后,分析型数据库会保证数据的最终一致。
若希望达成数据写入速率的最大化,建议:
(1)每条insert插入多条数据,具体条数视数据列数决定。若需要极限性能,每条insert插入的数据需拥有相同的一级分区号;

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
打赏
0
0
0
0
6
分享
相关文章
从湖仓分离到湖仓一体,四川航空基于 SelectDB 的多源数据联邦分析实践
川航选择引入 SelectDB 建设湖仓一体大数据分析引擎,取得了数据导入效率提升 3-6 倍,查询分析性能提升 10-18 倍、实时性提升至 5 秒内等收益。
从湖仓分离到湖仓一体,四川航空基于 SelectDB 的多源数据联邦分析实践
数据驱动智能,智能优化数据——大数据与人工智能的双向赋能
数据驱动智能,智能优化数据——大数据与人工智能的双向赋能
52 4
数据让农业更聪明——用大数据激活田间地头
数据让农业更聪明——用大数据激活田间地头
54 2
数据的“潘多拉魔盒”:大数据伦理的深度思考
数据的“潘多拉魔盒”:大数据伦理的深度思考
166 25
数据无界、湖仓无界, Apache Doris 湖仓一体解决方案全面解读(上篇)
湖仓一体架构融合了数据湖的低成本、高扩展性,以及数据仓库的高性能、强数据治理能力,高效应对大数据时代的挑战。为助力企业实现湖仓一体的建设,Apache Doris 提出了数据无界和湖仓无界核心理念,并结合自身特性,助力企业加速从 0 到 1 构建湖仓体系,降低转型过程中的风险和成本。本文将对湖仓一体演进及 Apache Doris 湖仓一体方案进行介绍。
数据无界、湖仓无界, Apache Doris 湖仓一体解决方案全面解读(上篇)
【YashanDB知识库】使用DataX工具迁移yashan数据到maxcompute
本文介绍使用崖山适配的DataX工具进行数据库迁移的方法,包括单表迁移和批量表迁移。单表迁移需配置json文件并执行同步命令;批量迁移则通过脚本自动化生成json配置文件并完成数据迁移,最后提供数据比对功能验证迁移结果。具体步骤涵盖连接信息配置、表清单获取、json文件生成、数据迁移执行及日志记录,确保数据一致性。相关工具和脚本简化了复杂迁移过程,提升效率。
数据大爆炸:解析大数据的起源及其对未来的启示
数据大爆炸:解析大数据的起源及其对未来的启示
247 15
数据大爆炸:解析大数据的起源及其对未来的启示
大数据与云计算:无缝结合,开启数据新纪元
大数据与云计算:无缝结合,开启数据新纪元
243 11
DataWorks数据集成同步至Hologres能力介绍
本文由DataWorks PD王喆分享,介绍DataWorks数据集成同步至Hologres的能力。DataWorks提供低成本、高效率的全场景数据同步方案,支持离线与实时同步。通过Serverless资源组,实现灵活付费与动态扩缩容,提升隔离性和安全性。文章还详细演示了MySQL和ClickHouse整库同步至Hologres的过程。
玩转数据:初学者的大数据处理工具指南
玩转数据:初学者的大数据处理工具指南
124 14

热门文章

最新文章

下一篇
oss创建bucket
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等