开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

请问flink cdc 中这个问题如何解决?

问题1:请问flink cdc 中使用pgcdc,connector进行flinksql运算,创建的某张表slot的confirmed_flush_lsn不推进,后来加入的checkpoint后开始推进,ck的周期是10min,但是运行一段时间(大概1-2天)后就不在推进了,导致数据库wal日志膨胀删除不了,这个问题如何解决?还有就是根据表创建slot的链接,它的confirmed_flush_lsn和restart_lsn的推进速度远落后于pg_current_wal_lsn导致日志文件越来越多。有能解决的办法么?
问题2:还有我将slot删除掉之后,再自动建立相同的slot,ck即使成功了lsn也不再推进了,这个也是因为ck时间间隔的问题么?

展开
收起
十一0204 2023-07-19 17:36:48 81 0
2 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    在使用 Flink CDC 中,使用 PG CDC Connector 进行 Flink SQL 运算时,遇到 confirmed_flush_lsn 不推进的问题,可能是由于以下原因导致的:
    任务异常终止
    在 Flink CDC 中,任务异常终止可能导致 confirmed_flush_lsn 不推进。如果任务异常终止,可能会导致一些数据未能被正确地处理,从而导致 confirmed_flush_lsn 不推进。可以查看 Flink 日志和异常信息,找出任务异常终止的原因,并进行相应的处理。
    数据丢失
    在 Flink CDC 中,数据丢失可能导致 confirmed_flush_lsn 不推进。如果数据丢失,可能会导致 confirmed_flush_lsn 不推进。可以通过检查数据同步日志和目标数据库的数据来确认是否出现数据丢失的情况。
    配置不当
    在 Flink CDC 中,配置不当可能导致 confirmed_flush_lsn 不推进。例如,可能配置了错误的数据过滤条件、将任务的并行度设置得过高或过低等。可以检查 Flink CDC 的配置文件,确认配置是否正确无误。
    针对 confirmed_flush_lsn 不推进的问题,可以尝试以下解决方法:
    检查任务状态
    可以使用 Flink Web UI 或 Flink Metrics 等工具,检查任务的状态和指标。可以查看任务的运行状态、数据量、处理速度等指标,找出任务的瓶颈和问题,并进行相应的处理。
    调整任务配置
    可以通过调整任务配置来解决 confirmed_flush_lsn 不推进的问题。例如,可以调整任务的并行度、buffer size、checkpoint 频率等参数,来提高任务的性能和稳定性。
    检查数据源和数据

    2023-07-29 20:00:37
    赞同 展开评论 打赏
  • 意中人就是我呀!

    "回答1:ckp设置3分钟,tm调大点。
    此回答整理至钉群“Flink CDC 社区”。"

    2023-07-19 18:45:39
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载