开发者社区> 问答> 正文

业务系统的增删改的数据记录实时发送到了kafka,flinksql 关联了3张表的日志记#Flink

业务系统的增删改的数据记录实时发送到了kafka,flinksql 关联了3张表的日志记录数据,再根据产品的粒度对A、B、C字段的求和,求最大值、平均值等算子的计算, 再把计算好的数据upsert到Oracle了,目前是当有表的记录数据删除数据后,这场景该怎么处理,或者更新A字段后,该怎么处理。大家针对这2个场景怎么设计的,请教下。#Flink

展开
收起
黄一刀 2020-06-10 23:26:59 1358 0
1 条回答
写回答
取消 提交回答
  • 你同步到 kafka 用的什么工具,什么格式? canal 么? 1.11 flink sql 能比较原生地支持这个场景。

    2020-06-10 23:27:27
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载