开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink cdc delete源表,目标表未删除

flink cdc delete源表,目标表未删除,
如下:
INSERT INTO sink_table (
id,
device_id,
name,
device_type,
device_name,
gateway_serial_num,
points_model_id,
device_uniq_code,
etl_time)
SELECT
t1.id,
t1.device_id,
t2.device_type,
t2.device_name,
t2.gateway_serial_num,
t2.points_model_id,
CONCAT_WS('-', t1.station_id, t1.data_object_id),
CURRENT_TIMESTAMP
FROM table_a t1
LEFT JOIN
(
SELECT
id,
device_id,
name AS device_name,
cim_code AS device_type,
gateway_serial_num,
points_model_id
FROM table_b
UNION ALL
SELECT
id,
dg_id AS device_id,
name AS device_name,
type AS device_type,
gateway_serial_num,
CAST(NULL AS BIGINT) AS points_model_id
FROM table_c
) t2
ON t1.device_id = t2.id;

展开
收起
1731446667249005 2023-11-06 17:19:54 87 0
1 条回答
写回答
取消 提交回答
  • 这个问题可能是由于Flink CDC在处理源表和目标表之间的删除操作时出现了问题。为了解决这个问题,你可以尝试以下方法:

    1. 检查源表和目标表的数据是否一致。如果源表中有数据被删除,那么目标表中应该对应的记录也应该被删除。你可以使用SELECT语句来检查这两个表的数据是否一致。

    2. 检查Flink CDC的配置是否正确。确保你的Flink CDC配置中包含了正确的源表和目标表信息,以及正确的数据转换逻辑。

    3. 查看Flink CDC的日志。Flink CDC会生成一些日志信息,这些信息可以帮助你了解CDC的处理过程和可能出现的问题。你可以查看这些日志信息,以获取更多关于问题的详细信息。

    2023-11-10 10:54:46
    赞同 1 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载