开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

请问Flinkcdc中我用sql语句将数据insert into 到我kafka表怎么避免程序关闭?

请问Flinkcdc中我用sql语句将数据insert into 到我kafka表后,就是t_evn.execute()程序就关闭了,如果后面加了print(),程序就不会关闭,怎么避免程序关闭呢?我直接设置的表环境,也设定了流模式。

展开
收起
小易01 2023-07-19 18:47:48 100 0
2 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    在 Flink CDC 中,如果您使用 SQL 语句将数据 insert 到 Kafka 表中,并且希望在程序关闭时避免数据丢失,您可以使用 Flink 的 Checkpoint 功能来实现数据的持久化和恢复。
    具体来说,您可以按照以下步骤来实现:
    开启 Flink 的 Checkpoint 功能,并将 Checkpoint 数据保存到外部存储系统中,例如 HDFS 或者 RocksDB。可以通过以下代码来开启 Checkpoint:
    java
    Copy
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    env.enableCheckpointing(1000); // 开启 Checkpoint,每隔 1000 毫秒触发一次
    env.setStateBackend(new RocksDBStateBackend("hdfs://.../checkpoints")); // 将 Checkpoint 数据保存到 RocksDB 中
    在上述代码中,enableCheckpointing 方法用于开启 Checkpoint,setStateBackend 方法用于指定状态后端,这里使用 RocksDBStateBackend 将 Checkpoint 数据保存到 HDFS 中。
    使用 Flink 的 Kafka Producer 将数据写入到 Kafka 中,并将 Kafka Producer 集成到 Flink 的 Checkpoint 机制中,以保证数据的可靠性。可以通过以下代码来实现:
    java
    Copy
    StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);
    tableEnv.executeSql("CREATE TABLE kafka_table (key STRING, value STRING) WITH (...)");
    tableEnv.executeSql("INSERT INTO kafka_table SELECT key, value FROM source_table");

    FlinkKafkaProducer kafkaProducer = new FlinkKafkaProducer<>(
    "topic", new SimpleStringSchema(), kafkaProperties);
    DataStream kafkaStream = env
    .addSource(sourceFunction)
    .map(value -> new ProducerRecord("topic", value));
    kafkaStream.addSink(kafkaProducer)
    .setParallelism(1)
    .uid("kafka-sink")
    .name("Kafka Sink")
    .setLogFailuresOnly(false)
    .setFlushOnCheckpoint(true); // 将 Kafka Producer 集成到 Flink 的 Checkpoint 机制中
    在上述代码中,FlinkKafkaProducer 是 Flink 提供的 Kafka Producer 实现,setFl

    2023-07-29 18:59:07
    赞同 展开评论 打赏
  • 存在即是合理

    如果在使用 Flink CDC 将数据插入到 Kafka 表中后,程序就关闭了,可能是因为程序没有正确地处理流模式。在流模式下,需要使用 StreamExecutionEnvironmentexecute() 方法来启动 Flink 作业,并在作业完成后等待作业结束。如果直接调用 t_env.execute() 方法来启动作业,那么 Flink 会在作业完成后自动关闭。

    为了避免程序关闭可以尝试将 t_env.execute() 方法改为 StreamExecutionEnvironmentexecuteAsync() 方法,这样 Flink 作业将在后台异步执行,并且不会立即关闭。例如:

    t_env.executeAsync(job);
    

    另外,如果在程序中添加了 print() 语句,那么程序会一直打印日志直到任务结束。这可能是因为 print() 语句阻塞了程序的退出。为了避免这种情况,可以将 print() 语句移到 StreamExecutionEnvironmentexecuteAsync() 方法之后,或者将其放在一个单独的线程中运行。

    2023-07-24 12:55:45
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载