实时计算 Flink版操作报错之连接外部kafka本地执行测试代码报错如何解决

简介: 在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。

问题一:Flink CDC编译build都正常,在idea中执行的时候提示这个错误?


Flink CDC编译build都正常,在idea中执行的时候提示这个错误?


参考回答:

缺少jar包,flink-java-api


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/584427



问题二:Flink CDC有人遇到过这个问题吗?


Flink CDC有人遇到过这个问题吗?Caused by: org.apache.flink.util.FlinkRuntimeException: The assigner is not ready to offer finished split information, this should not be called

at com.ververica.cdc.connectors.mysql.source.assigners.MySqlSnapshotSplitAssigner.getFinishedSplitInfos(MySqlSnapshotSplitAssigner.java:355)

at com.ververica.cdc.connectors.mysql.source.assigners.MySqlHybridSplitAssigner.getFinishedSplitInfos(MySqlHybridSplitAssigner.java:139)

at com.ververica.cdc.connectors.mysql.source.enumerator.MySqlSourceEnumerator.sendBinlogMeta(MySqlSourceEnumerator.java:251)

at com.ververica.cdc.connectors.mysql.source.enumerator.MySqlSourceEnumerator.handleSourceEvent(MySqlSourceEnumerator.java:145)

at org.apache.flink.runtime.source.coordinator.SourceCoordinator.lambda$handleEventFromOperator$1(SourceCoordinator.java:167)

at org.apache.flink.runtime.source.coordinator.SourceCoordinator.lambda$runInEventLoop$8(SourceCoordinator.java:329)

... 8 more


参考回答:

看着像是主键分割有异常


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/584426



问题三:Flink CDC有没有遇到Oracle表没有获取日志,也没报错?cdc 2.2 oracle19c


Flink CDC有没有遇到Oracle表没有获取日志,也没报错?cdc 2.2 oracle19c


参考回答:

首先确认19的部署模式是不是有pdb库,归档日志是否正常开启


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/584420



问题四:flink-cdc2.4.0监听Oracle数据库,监听表发生表结构变更报错挂掉,有解决方案吗?


flink-cdc2.4.0监听Oracle数据库,监听表发生表结构变更报错挂掉, mysql在这一块倒是支持表结构变更不受影响继续监听,oracle是还没支持还是有解决方法?用的是java集成cdc,构造数据源是使用DataStream Source。现在3.0.0会支持吗?


参考回答:

Flink CDC在处理Oracle数据库的变更数据捕获时,对于表结构的变更可能没有像MySQL那样提供无缝的支持。当Oracle数据库中的表结构发生变更时,可能会导致Flink CDC任务失败或者挂起。

目前,Oracle的CDC支持在Flink中主要是通过Debezium Oracle Connector实现的。Debezium在处理Oracle的表结构变更时,可能会遇到一些挑战,因为Oracle的DDL语句和MySQL有所不同,且Oracle的元数据访问也更为复杂。

以下是一些可能的解决方法或注意事项:

  1. 手动干预
  • 在进行表结构变更之前,可以先暂停Flink CDC任务,完成变更后再恢复任务。
  • 或者在变更后,重新配置和启动Flink CDC任务以适应新的表结构。
  1. 使用Debezium的事件筛选功能
  • 可能可以通过配置Debezium Oracle Connector来忽略或者特殊处理DDL事件,但这需要对Debezium的配置和工作原理有深入理解。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/584177



问题五:Flink1.18.0版本连接外部kafka本地执行测试代码报错


版本:Flink1.18.0

代码如下:```

public static void main(String[] args) {

//1、创建TableEnvironment
    EnvironmentSettings settings = EnvironmentSettings.newInstance().build();
    TableEnvironment tEnv = TableEnvironment.create(settings);
    //2、创建source  table
    Schema schema = Schema.newBuilder()
            .column("user", DataTypes.STRING())
            .column("url",DataTypes.STRING())
            .column("cTime", DataTypes.STRING())
            .build();
    tEnv.createTemporaryTable( "sourceTable", TableDescriptor.forConnector("kafka")
            .schema(schema)
            .option("topic","spring_test_kafka_topic")
            .option("properties.bootstrap.servers","xxxxx:9092")
            .option("properties.group.id","clicklog")
            .option("scan.startup.mode","earliest-offset")
            .option("format","json")
            .build()
    );
    //3、创建sink  table
    tEnv.createTemporaryTable("sinkTable",
            TableDescriptor.forConnector("print").schema(schema).build());
    //4、执行sql查询
    //Table resultTable = tEnv.sqlQuery(" select ,userurl,cTime from sourceTable ");
    Table resultTable = tEnv.from("sourceTable")
            .select($("user"), $("url"),$("cTime"));
    //5、输出
    resultTable.executeInsert("sinkTable");
}

```

操作流程:运行代码报错:

请问是什么原因呢,请大佬指点


参考回答:

是引入的依赖包造成的,刚开始参考官方文档引入kafka依赖时,项目的pom文件引入的是flink-connector-kafka,而不是flink-sql-connector-kafka,修改pom文件如下即可,同时要将对应的jar包上传到flink集群各节点的lib包下并重启集群

此外,kafka上的主题名称不要使用下划线,否则会报类似如下的错误:


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/584162

相关实践学习
基于Hologres+Flink搭建GitHub实时数据大屏
通过使用Flink、Hologres构建实时数仓,并通过Hologres对接BI分析工具(以DataV为例),实现海量数据实时分析.
实时计算 Flink 实战课程
如何使用实时计算 Flink 搞定数据处理难题?实时计算 Flink 极客训练营产品、技术专家齐上阵,从开源 Flink功能介绍到实时计算 Flink 优势详解,现场实操,5天即可上手! 欢迎开通实时计算 Flink 版: https://cn.aliyun.com/product/bigdata/sc Flink Forward Asia 介绍: Flink Forward 是由 Apache 官方授权,Apache Flink Community China 支持的会议,通过参会不仅可以了解到 Flink 社区的最新动态和发展计划,还可以了解到国内外一线大厂围绕 Flink 生态的生产实践经验,是 Flink 开发者和使用者不可错过的盛会。 去年经过品牌升级后的 Flink Forward Asia 吸引了超过2000人线下参与,一举成为国内最大的 Apache 顶级项目会议。结合2020年的特殊情况,Flink Forward Asia 2020 将在12月26日以线上峰会的形式与大家见面。
相关文章
|
6月前
|
测试技术 开发者 Python
Python单元测试入门:3个核心断言方法,帮你快速定位代码bug
本文介绍Python单元测试基础,详解`unittest`框架中的三大核心断言方法:`assertEqual`验证值相等,`assertTrue`和`assertFalse`判断条件真假。通过实例演示其用法,帮助开发者自动化检测代码逻辑,提升测试效率与可靠性。
512 1
|
7月前
|
算法 IDE Java
Java 项目实战之实际代码实现与测试调试全过程详解
本文详细讲解了Java项目的实战开发流程,涵盖项目创建、代码实现(如计算器与汉诺塔问题)、单元测试(使用JUnit)及调试技巧(如断点调试与异常排查),帮助开发者掌握从编码到测试调试的完整技能,提升Java开发实战能力。
736 0
|
5月前
|
安全 Java 测试技术
《深入理解Spring》单元测试——高质量代码的守护神
Spring测试框架提供全面的单元与集成测试支持,通过`@SpringBootTest`、`@WebMvcTest`等注解实现分层测试,结合Mockito、Testcontainers和Jacoco,保障代码质量,提升开发效率与系统稳定性。
|
6月前
|
人工智能 边缘计算 搜索推荐
AI产品测试学习路径全解析:从业务场景到代码实践
本文深入解析AI测试的核心技能与学习路径,涵盖业务理解、模型指标计算与性能测试三大阶段,助力掌握分类、推荐系统、计算机视觉等多场景测试方法,提升AI产品质量保障能力。
|
7月前
|
安全 网络安全 数据安全/隐私保护
解决SSH测试连接GitHub时出现“connection closed by remote host”的问题。
然后使用 `ssh -T git@ssh.github.com`来测试连接。
915 0
|
8月前
|
安全 Java 测试技术
Java 项目实战中现代技术栈下代码实现与测试调试的完整流程
本文介绍基于Java 17和Spring技术栈的现代化项目开发实践。项目采用Gradle构建工具,实现模块化DDD分层架构,结合Spring WebFlux开发响应式API,并应用Record、Sealed Class等新特性。测试策略涵盖JUnit单元测试和Testcontainers集成测试,通过JFR和OpenTelemetry实现性能监控。部署阶段采用Docker容器化和Kubernetes编排,同时展示异步处理和反应式编程的性能优化。整套方案体现了现代Java开发的最佳实践,包括代码实现、测试调试
283 0
|
数据可视化 前端开发 测试技术
接口测试新选择:Postman替代方案全解析
在软件开发中,接口测试工具至关重要。Postman长期占据主导地位,但随着国产工具的崛起,越来越多开发者转向更适合中国市场的替代方案——Apifox。它不仅支持中英文切换、完全免费不限人数,还具备强大的可视化操作、自动生成文档和API调试功能,极大简化了开发流程。
|
9月前
|
Java 测试技术 容器
Jmeter工具使用:HTTP接口性能测试实战
希望这篇文章能够帮助你初步理解如何使用JMeter进行HTTP接口性能测试,有兴趣的话,你可以研究更多关于JMeter的内容。记住,只有理解并掌握了这些工具,你才能充分利用它们发挥其应有的价值。+
1354 23
|
11月前
|
SQL 安全 测试技术
2025接口测试全攻略:高并发、安全防护与六大工具实战指南
本文探讨高并发稳定性验证、安全防护实战及六大工具(Postman、RunnerGo、Apipost、JMeter、SoapUI、Fiddler)选型指南,助力构建未来接口测试体系。接口测试旨在验证数据传输、参数合法性、错误处理能力及性能安全性,其重要性体现在早期发现问题、保障系统稳定和支撑持续集成。常用方法包括功能、性能、安全性及兼容性测试,典型场景涵盖前后端分离开发、第三方服务集成与数据一致性检查。选择合适的工具需综合考虑需求与团队协作等因素。
1778 24

相关产品

  • 实时计算 Flink版