开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC报错不支持 要解决的问题是数据出现反压 读取速度远远大于写入速度么?

我flink1.13.6版本的sql cdc怎么分别设置source和sink并行度 直接写到with参数里面报错不支持 要解决的问题是数据出现反压 读取速度远远大于写入速度?image.png
是sql操作的 写到with参数里报错不支持

展开
收起
真的很搞笑 2023-07-31 14:20:09 113 0
2 条回答
写回答
取消 提交回答
  • 在 Flink 1.13.6 的 SQL CDC 中,你可以通过使用 SET 命令来分别设置 Source 和 Sink 的并行度。直接将并行度参数写入到 WITH 参数中是不支持的。

    下面是一个示例代码片段,演示了如何设置 Source 和 Sink 的并行度:

    SET 'source.parallelism' = '2';
    SET 'sink.parallelism' = '4';
    
    CREATE TABLE source_table (
        -- 定义表结构和字段
    ) WITH (
        'connector' = 'mysql-cdc',
        'hostname' = '<MySQL 主机名>',
        'port' = '<MySQL 端口号>',
        'database-name' = '<数据库名>',
        'table-name' = '<表名>'
    );
    
    CREATE TABLE sink_table (
        -- 定义表结构和字段
    ) WITH (
        'connector' = 'kafka',
        'topic' = '<Kafka 主题>',
        'properties.bootstrap.servers' = '<Kafka 服务器地址>'
    );
    

    在上述示例中,通过使用 SET 命令将 source.parallelism 设置为 2,并将 sink.parallelism 设置为 4。这样可以分别指定 Source 和 Sink 的并行度。

    另外,如果你遇到数据出现反压的问题,读取速度大于写入速度,可以尝试以下方法来解决:

    • 增加 Sink 的并行度:通过增加 Sink 的并行度来提高写入数据的并行处理能力,以匹配读取数据的速度。
    • 调整读取数据的速率:通过调整 Source 的配置参数,如 scan.incremental.snapshot.chunk.sizescan.snapshot.fetch.size 等,来限制读取数据的速率。
    • 调整 Flink 作业的资源配置:根据实际情况,增加 TaskManager 的数量、调整内存分配等,以提供足够的计算和资源能力。

    需要注意的是,并行度的设置应该根据实际情况进行调整,以保持整个作业的平衡和稳定运行。

    希望这些信息对你有所帮助!如果还有其他问题,请继续提问。

    2023-07-31 21:34:29
    赞同 展开评论 打赏
  • 这不是Sql操作吗,不能写到with里面,在ddl语句创建之前可以写,你去看看mysql案例,里面有个set 并行度的,此回答整理自钉群“Flink CDC 社区”

    2023-07-31 14:26:19
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    SQL Server在电子商务中的应用与实践 立即下载
    GeoMesa on Spark SQL 立即下载
    原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载