Flink报错问题之Flink报错Waiting for a cluster to become ready如何解决

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: Flink报错通常是指在使用Apache Flink进行实时数据处理时遇到的错误和异常情况;本合集致力于收集Flink运行中的报错信息和解决策略,以便开发者及时排查和修复问题,优化Flink作业的稳定性。

问题一:Flink报错remaining connection slots are reserved for non-replication superuser connections

Flink报错remaining connection slots are reserved for non-replication superuser connections



参考答案:

这个报错一般为连接数超了。

【解决方案】

● 指引用户看每个接入节点(Frontend,FE)连接的app_name,查看flink-connector使用的holo client连接数。

● 查看是不是有其他作业在连接holo。

● 建议参考连接数管理,杀一下连接数。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/476342?spm=a2c6h.13066369.question.11.6f064d5cegmpSU



问题二:Flink报错java.lang.IllegalArgumentException: Illegal Capacity: -1

Flink报错java.lang.IllegalArgumentException: Illegal Capacity: -1



参考答案:

在作业使用Map State的遍历操作时,出现java.lang.IllegalArgumentException: Illegal Capacity: -1异常,报错原因及解决方案参考文档



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/476373?spm=a2c6h.13066369.question.14.6f064d5c8JIqqA



问题三:实时计算Flink报错INFOorg.apache.flink.fs.osshadoop.shaded.com.aliyun.oss

实时计算Flink报错INFOorg.apache.flink.fs.osshadoop.shaded.com.aliyun.oss



参考答案:

可参考QA:INFO:org.apache.flink.fs.osshadoop.shaded.com.aliyun.oss



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/475321?spm=a2c6h.13066369.question.15.6f064d5c8I2tum



问题四:实时计算Flink报错Waiting for a cluster to become ready

实时计算Flink报错Waiting for a cluster to become ready



参考答案:

该报错可能是集群没有资源导致的,可以排查下集群是否还有资源。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/475539?spm=a2c6h.13066369.question.16.6f064d5ch6eAe5



问题五:Flink报错Encountered change event for table yhtplus.organization whose schema isn't known to this connector

Flink报错Encountered change event for table yhtplus.organization whose schema isn't known to this connector



参考答案:

报错详情:

ERROR io.debezium.connector.mysql.BinlogReader [] - Encountered change event 'Event{header=EventHeaderV4{timestamp=xxx, eventType=TABLE_MAP, serverId=xxx, headerLength=xxx, dataLength=xxx, nextPosition=xxx, flags=xxx}, data=TableMapEventData{tableId=xxx, database='xxx', table='xxx', columnTypes=xxx, xxx..., columnMetadata=xxx,xxx..., columnNullability={xxx,xxx...}, eventMetadata=null}}' at offset {ts_sec=xxx, file=mysql-bin.xxx, pos=xxx, gtids=xxx, server_id=xxx, event=xxx} for table xxx.xxx whose schema isn't known to this connector. One possible cause is an incomplete database history topic. Take a new snapshot in this case. Use the mysqlbinlog tool to view the problematic event: mysqlbinlog --start-position=30946 --stop-position=31028 --verbose mysql-bin.004419 202x-xx-xx xx:xx:xx,xxx ERROR io.debezium.connector.mysql.BinlogReader [] - Error during binlog processing. Last offset stored = null, binlog reader near position = mysql-bin.xxx/xxx 202x-xx-xx xx:xx:xx,xxx ERROR io.debezium.connector.mysql.BinlogReader [] - Failed due to error: Error processing binlog event org.apache.kafka.connect.errors.ConnectException: Encountered change event for table statistic.apk_info whose schema isn't known to this connector at io.debezium.connector.mysql.AbstractReader.wrap(AbstractReader.java:241) ~[ververica-connector-mysql-1.12-vvr-3.0.0-SNAPSHOT-jar-with-dependencies.jar:1.12-vvr-3.0.0-SNAPSHOT] at io.debezium.connector.mysql.AbstractReader.failed(AbstractReader.java:218) ~[ververica-connector-mysql-1.12-vvr-3.0.0-SNAPSHOT-jar-with-dependencies.jar:1.12-vvr-3.0.0-SNAPSHOT]。

报错原因:

使用了debezium.snapshot.mode=never导致可能出现该错误。

解决方案:

不建议使用debezium.snapshot.mode=never,因为never会从binlog开头读取数据, 但是binlog开头的binlog事件对应的table schema和当前表的schema可能不匹配,所以会报该错误。 可以通过'debezium.inconsistent.schema.handling.mode'='warn'参数绕过。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/476370?spm=a2c6h.13066369.question.17.6f064d5cS8G9lb

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
1月前
|
Java 关系型数据库 MySQL
Flink1.18.1和CDC2.4.1 本地没问题 提交任务到服务器 报错java.lang.NoClassDefFoundError: Could not initialize class io.debezium.connector.mysql.MySqlConnectorConfig
【2月更文挑战第33天】Flink1.18.1和CDC2.4.1 本地没问题 提交任务到服务器 报错java.lang.NoClassDefFoundError: Could not initialize class io.debezium.connector.mysql.MySqlConnectorConfig
54 2
|
1月前
|
Java 关系型数据库 MySQL
Flink CDC有见这个报错不?
【2月更文挑战第29天】Flink CDC有见这个报错不?
23 2
|
1月前
|
存储 关系型数据库 MySQL
Flink CDC产品常见问题之写hudi的时候报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
资源调度 关系型数据库 测试技术
Flink CDC产品常见问题之没有报错但是一直监听不到数据如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
缓存 监控 Java
Flink CDC产品常见问题之flink集群jps命令报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
Oracle 关系型数据库 MySQL
Flink CDC产品常见问题之用superset连接starrocks报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
Oracle 关系型数据库 MySQL
flink cdc 增量问题之增量数据会报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
2月前
|
消息中间件 Kafka Apache
Apache Flink 是一个开源的分布式流处理框架
Apache Flink 是一个开源的分布式流处理框架
484 5
|
1月前
|
SQL Java API
官宣|Apache Flink 1.19 发布公告
Apache Flink PMC(项目管理委员)很高兴地宣布发布 Apache Flink 1.19.0。
1358 1
官宣|Apache Flink 1.19 发布公告
|
1月前
|
SQL Apache 流计算
Apache Flink官方网站提供了关于如何使用Docker进行Flink CDC测试的文档
【2月更文挑战第25天】Apache Flink官方网站提供了关于如何使用Docker进行Flink CDC测试的文档
145 3

相关产品

  • 实时计算 Flink版