开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

各位大佬,请教个问题,刚开始用flink1.17.1版本,写入到测试环境自建的kafka,数据能写?

各位大佬,请教个问题,刚开始用flink1.17.1版本,写入到测试环境自建的kafka,数据能写入。写入到阿里云的kafka实例,数据无法写入。之前使用1.13.6往阿里云kafka可以正常写?19794771d0f519825250ac6cb47313ee.png

展开
收起
真的很搞笑 2023-08-20 19:14:08 80 0
1 条回答
写回答
取消 提交回答
  • 可以的,以下是简单的示例代码:

    import org.apache.flink.api.java.utils.ParameterTool;
    import org.apache.flink.streaming.api.datastream.DataStream;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.api.functions.sink.SinkFunction;
    import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;

    public class KafkaSinkExample {

    public static void main(String[] args) throws Exception {
    // 获取 Flink 运行环境
    StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();

    // 读取数据源
    DataStream<String> input = environment.socketTextStream("localhost", 9090);
    
    // 写入 Kafka
    input.addSink(new FlinkKafkaProducer<>(
        "localhost:9092",
        "my-topic",
        (String value) -> new ProducerRecord<>("my-topic", value),
        new FlinkKafkaProducer.FlinkKafkaSerializationSchemaWrapper<String>(
            new SimpleStringSchema())));
    
    // 启动 Flink 程序
    environment.execute();
    

    }
    }
    运行该示例,Flink 程序会从本地 localhost:9090 端口读取数据,并将数据写入到 Kafka 的 my-topic 主题中。

    2023-09-20 11:20:04
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载