开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC如何使用per job提交sql作业?

Flink CDC如何使用per job提交sql作业?image.png
现在都是起一个yarn-session

展开
收起
真的很搞笑 2023-11-21 09:09:19 75 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    Flink CDC可以通过以下方式进行per-job的模式提交Flink SQL作业:

    1. 使用Flink CLI或SQL Client。
    2. 使用Flink REST API。
    2023-11-21 23:12:43
    赞同 展开评论 打赏
  • 2023-11-21 22:15:16
    赞同 展开评论 打赏
  • Flink CDC支持通过Per Job提交SQL作业。具体步骤如下:

    1. 编写SQL语句,例如:
    CREATE TABLE my_table (
      id INT,
      name STRING,
      age INT
    ) WITH (
      'connector' = 'mysql-cdc',
      'hostname' = 'localhost',
      'port' = '3306',
      'username' = 'root',
      'password' = 'password',
      'database-name' = 'test',
      'table-name' = 'my_table'
    );
    
    1. 将上述SQL语句保存为一个文件,例如create_table.sql

    2. 使用Flink的命令行工具或Web界面提交作业,并指定SQL文件的路径和名称,例如:

    ./bin/flink run -d -p 3306 /path/to/create_table.sql
    

    其中,-d表示以detached模式运行作业,-p表示指定MySQL的端口号。

    1. 如果需要查看作业的状态和日志,可以使用Flink的命令行工具或Web界面进行操作。
    2023-11-21 14:59:31
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    SQL Server 2017 立即下载
    GeoMesa on Spark SQL 立即下载
    原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载