你好,DataWorks中我有一个离线同步的任务的数据源变了,我新建了一个新的数据源的同步任务,调度配置没变,因为怕数据同步出现问题或者丢失,现在是两个同步任务并行,调试没问题后再把旧的删除掉,数据同步输出的表是同一个 这里设置的也是先清理数据再写入,但是我发现输出的表插入的两遍,
这个有什么好的方法避免吗?是一样的分区。不过是两个同步任务调度配置是一样的。是不是因为调度时间一样所导致的。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
写入前清理 是清理的分区,这两条一样的数据应该是在不同的分区吧 ,如果有需要测试也是建议新任务先写入临时表 没问题再把原来的任务换一下源表 不建议两个任务同时写一张表。执行时间也是差不多的吗 在并发写入? 试试错开时间执行下 还会不会有重复的数据,此回答整理自钉群“DataWorks交流群(答疑@机器人)”
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。