Flink1.14 读写Kafka

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 备忘录

引入依赖

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>

相关代码

object MysqlTokafka {
  def main(args: Array[String]): Unit = {
    System.setProperty("HADOOP_USER_NAME", "root")
    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
    env.enableCheckpointing(5000)
    env.setParallelism(1)
    val tableEnv: StreamTableEnvironment = StreamTableEnvironment.create(env)
    tableEnv
      .executeSql(
        """
          |create table mc_member_address_to_kafka(
          |   id bigint,
          |   user_id string,
          |   province string,
          |   city string,
          |   area string,
          |   address string,
          |   lon string,
          |   lat string,
          |   phone_number string,
          |   consignee_name string,
          |   gmt_create bigint,
          |   gmt_modified bigint,
          |   primary key (id) NOT ENFORCED
          | ) WITH (
          | 'connector' = 'upsert-kafka',
          | 'topic' = 'mc_member_address_to_kafka',
          | 'properties.bootstrap.servers' = 'cm2:9092,cm3:9092',
          | 'key.format' = 'json',
          | 'value.format' = 'json')
          |""".stripMargin)
    tableEnv.executeSql(
      """
        |create table mc_member_address_to_kafka_source(
        |   id bigint,
        |   user_id string,
        |   province string,
        |   city string,
        |   area string,
        |   address string,
        |   lon string,
        |   lat string,
        |   phone_number string,
        |   consignee_name string,
        |   gmt_create bigint,
        |   gmt_modified bigint,
        |   primary key (id) NOT ENFORCED
        | ) WITH (
        | 'connector' = 'kafka',
        |  'topic' = 'mc_member_address_to_kafka',
        |  'properties.bootstrap.servers' = 'cm2:9092,cm3:9092',
        |  'properties.group.id' = 'testGroup',
        |  'scan.startup.mode' = 'earliest-offset',
        |  'format' = 'json')
        |""".stripMargin)
            // 插入iceberg中 kafka -> iceberg
    tableEnv.executeSql(
      """
        | insert into lake_house_catalog.lakehouse.ods_iceberg_mc_member_address select * from mc_member_address_to_kafka
        |""".stripMargin)

  }
}
目录
相关文章
|
3月前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
225 0
|
3月前
|
消息中间件 Java Kafka
Flink-07 Flink Java 3分钟上手 滚动窗口 事件驱动 Kafka TumblingWindow GlobalWindow CountWindow
Flink-07 Flink Java 3分钟上手 滚动窗口 事件驱动 Kafka TumblingWindow GlobalWindow CountWindow
45 7
|
3月前
|
消息中间件 NoSQL Kafka
Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose
Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose
75 4
|
3月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
205 0
|
3月前
|
消息中间件 资源调度 大数据
大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器
大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器
57 0
|
3月前
|
消息中间件 NoSQL Java
Flink-06 Flink Java 3分钟上手 滚动窗口 时间驱动 Kafka TumblingWindow TimeWindowFunction TumblingProcessing
Flink-06 Flink Java 3分钟上手 滚动窗口 时间驱动 Kafka TumblingWindow TimeWindowFunction TumblingProcessing
50 0
|
3月前
|
消息中间件 NoSQL Kafka
Flink-05 Flink Java 3分钟上手 Redis FlinkJedisPoolConfig 从Kafka写入Redis FlinkKafkaConsumer消费 结果写入Redis
Flink-05 Flink Java 3分钟上手 Redis FlinkJedisPoolConfig 从Kafka写入Redis FlinkKafkaConsumer消费 结果写入Redis
55 0
|
消息中间件 Kafka 流计算
|
4月前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。
|
2月前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
1312 73
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎