开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink使用 kafka connector 报错 Caused by:有人知道为什么吗?

Flink使用 kafka connector 报错 Caused by: java.lang.ClassNotFoundException: org.apache.flink.connector.kafka.source.KafkaSource 有人知道为什么吗?

展开
收起
真的很搞笑 2024-01-17 12:06:16 134 0
2 条回答
写回答
取消 提交回答
  • 把依赖打进任务包 ,此回答整理自钉群“【③群】Apache Flink China社区”

    2024-01-17 13:32:38
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    这个错误是因为Flink没有找到org.apache.flink.connector.kafka.source.KafkaSource类。请确保你的项目中包含了Flink Kafka Connector的依赖。如果你使用的是Maven,可以在pom.xml文件中添加以下依赖:

    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-connector-kafka_2.11</artifactId>
        <version>1.13.2</version>
    </dependency>
    

    如果你使用的是Gradle,可以在build.gradle文件中添加以下依赖:

    implementation 'org.apache.flink:flink-connector-kafka_2.11:1.13.2'
    

    注意:这里的版本号1.13.2可能需要根据你的Flink版本进行调整。你可以在Flink官方文档中查找最新的版本信息。

    2024-01-17 13:32:39
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载