开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

我这边想要实现的大数据计算MaxCompute 该怎么实现呢?

我这边想要实现的大数据计算MaxCompute是: 把同一个表的数据从前面一个分区复制给新分区,然后在新分区的数据里根据binlog 用逻辑进行删除 更新和插入,该怎么实现呢?

又因为克隆只能同名分区克隆,所以我在中间又加了个临时表,
即:A表的前一个分区 ---> 克隆给临时表B -----> 将临时表B的分区改为新分区 -----> 再将临时表B的数据 克隆给A ----> 再在A表的新分区上进行数据增删改

A表必须为事务表 (因为要进行增删改),是Transaction Table1.0 还是 2.0 我这边没要求,可以按可行性选择
B表是否是事务表都可以,这种模式也是无奈之举,因为我们的数据量近十亿,而且每个分区里必须保存全量否则业务实现不了,但是每天变化的数据只有几百万, 现有逻辑是 在前一个分区的基础上做merge,然后这个merge节点每天运行时间在15分钟+
我们就想着 先克隆再增删改会快很多

展开
收起
真的很搞笑 2024-03-12 18:44:35 19 0
1 条回答
写回答
取消 提交回答
  • 是不是可以用一下,我之前给你说的。dw整库实时进mc,监控的binlog日志。 ,此回答整理自钉群“MaxCompute开发者社区1群”

    2024-03-12 23:35:00
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载
    大数据&AI实战派 第2期 立即下载