实时计算 Flink版操作报错合集之报错:WARN (org.apache.kafka.clients.consumer.ConsumerConfig:logUnused)这个错误如何解决

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。

题一:Flink CDC 就报这个错,这个有人碰到过吗?


Flink CDC 2023-11-17 08:29:02,470 INFO org.apache.flink.runtime.executiongraph.ExecutionGraph [] - Source: t_a_sync_table[5] (1/1) (97b0c6d60d7c71e3ded020b3ee68a063_bc764cd8ddf7a0cff126f51c16239658_0_7) switched from RUNNING to FAILED on 10.44.0.21:45492-71b1c1 @ 10.44.0.21 (dataPort=44245).

java.lang.NoClassDefFoundError: Could not initialize class io.debezium.connector.sqlserver.SqlServerConnectorConfig

at io.debezium.connector.sqlserver.SqlServerConnector.taskConfigs(SqlServerConnector.java:62) ~[flink-sql-connector-sqlserver-cdc-2.4.2.jar:2.4.2]

at io.debezium.embedded.EmbeddedEngine.run(EmbeddedEngine.java:729) ~[flink-sql-connector-mysql-cdc-2.2.1.jar:2.2.1]

我们的环境里需要同时采集mysql与sqlserver,现在发现把mysql-connector的胖包放进去,就报这个错,这个有人碰到过吗?


参考回答:

他这个是不同版本造成的问题,

cdc只能用一个版本哈

比如要是2.4.2,都是2.4.2,不能一个2.4.2 一个2.2.1

除非你用ds作业,依赖打进jar独立运行,这种也是推荐的方式


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572324


问题二:Flink CDC我用TIMESTAMP_LTZ(3)就出现这种报错?


Flink CDC我用TIMESTAMP_LTZ(3)就出现Unable to convert to timestamp with local timezone from unexpected value 'BsonInt64{value=1681407447228}' of type INT64这种报错?


参考回答:

错误消息表明Flink无法正确地将BSON Int64类型转换为带有本地时区的时间戳(TIMESTAMP_LTZ)。这是因为在BSON中,日期和时间是以Unix时间戳形式表示的,而TIMESTAMP_LTZ则需要一个附加的时区信息。

要解决这个问题,您可以考虑以下几种方法:

  1. 调整数据源中的日期时间格式:请确保数据源中的日期时间字段按照Flink期望的格式进行编码。例如,您可以将日期时间字段转换为ISO 8601字符串,如YYYY-MM-DDTHH:MI:SS.MMMVV,其中VV代表时区偏移量(如+08:00)。
  2. 在Flink中自定义日期时间格式:您可以在Flink中定义自己的日期时间格式,然后在读取数据时使用该格式。例如,您可以定义一个名为timestamp-ltz-format的配置项,并为其设置值为yyyy-MM-dd'T'HH:mm:ss.SSSX,然后在读取数据时使用format: timestamp-ltz-format选项。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572323


问题三:Flink CDC FLINK CDC MYSQL->CLICKHOUSE,有遇到这种问题嘛?


Flink CDC FLINK CDC MYSQL->CLICKHOUSE,有大佬遇到[The state is cleared because of state ttl. This will result in incorrect result. You can increase the state ttl to avoid this.]这种问题嘛?


参考回答:

FLINK CDC 中出现 The state is cleared because of state ttl 错误通常是由于没有设置足够的 TTL 时间,导致状态过期。以下是一些建议:

  • 检查您的 FLINK CDC 配置文件,并增加状态超时时间(state.ttl)。如果尚未设置,则建议您将其设置为至少一天以上。
  • 确保有足够的内存资源可用于 FLINK CDC 存储状态。
  • 如果是临时表,可以考虑使用 FLINK SQL 状态持久化功能来避免状态超时问题。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572315


问题四:Flink CDC报错?


Flink CDC报错? WARN (org.apache.kafka.clients.consumer.ConsumerConfig:logUnused) - The configuration 'partition.discovery.interval.ms' was supplied but isn't a known config.


参考回答:

这个参数都不对,是不是需要排除下两种对不上


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572308


问题五:Flink CDC这个问题有没有哪位解决过呀,怎么屏蔽掉这个错误,不停止作业呀?


org.apache.flink.table.api.ValidationException: 'scan.incremental.snapshot.chunk.key-column' must be set when the table doesn't have primary keys。Flink CDC这个问题有没有哪位大佬解决过呀,怎么屏蔽掉这个错误,不停止作业呀?


参考回答:

table 的with参数里面设置


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572302

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
目录
相关文章
|
10天前
|
存储 人工智能 大数据
The Past, Present and Future of Apache Flink
本文整理自阿里云开源大数据负责人王峰(莫问)在 Flink Forward Asia 2024 上海站主论坛开场的分享,今年正值 Flink 开源项目诞生的第 10 周年,借此时机,王峰回顾了 Flink 在过去 10 年的发展历程以及 Flink社区当前最新的技术成果,最后展望下一个十年 Flink 路向何方。
286 33
The Past, Present and Future of Apache Flink
|
2月前
|
SQL Java API
Apache Flink 2.0-preview released
Apache Flink 社区正积极筹备 Flink 2.0 的发布,这是自 Flink 1.0 发布以来的首个重大更新。Flink 2.0 将引入多项激动人心的功能和改进,包括存算分离状态管理、物化表、批作业自适应执行等,同时也包含了一些不兼容的变更。目前提供的预览版旨在让用户提前尝试新功能并收集反馈,但不建议在生产环境中使用。
833 13
Apache Flink 2.0-preview released
|
2月前
|
存储 缓存 算法
分布式锁服务深度解析:以Apache Flink的Checkpointing机制为例
【10月更文挑战第7天】在分布式系统中,多个进程或节点可能需要同时访问和操作共享资源。为了确保数据的一致性和系统的稳定性,我们需要一种机制来协调这些进程或节点的访问,避免并发冲突和竞态条件。分布式锁服务正是为此而生的一种解决方案。它通过在网络环境中实现锁机制,确保同一时间只有一个进程或节点能够访问和操作共享资源。
89 3
|
3月前
|
SQL 消息中间件 关系型数据库
Apache Doris Flink Connector 24.0.0 版本正式发布
该版本新增了对 Flink 1.20 的支持,并支持通过 Arrow Flight SQL 高速读取 Doris 中数据。
|
2月前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
192 0
|
3月前
|
消息中间件 资源调度 API
Apache Flink 流批融合技术介绍
本文源自阿里云高级研发工程师周云峰在Apache Asia Community OverCode 2024的分享,内容涵盖从“流批一体”到“流批融合”的演进、技术解决方案及社区进展。流批一体已在API、算子和引擎层面实现统一,但用户仍需手动配置作业模式。流批融合旨在通过动态调整优化策略,自动适应不同场景需求。文章详细介绍了如何通过量化指标(如isProcessingBacklog和isInsertOnly)实现这一目标,并展示了针对不同场景的具体优化措施。此外,还概述了社区当前进展及未来规划,包括将优化方案推向Flink社区、动态调整算子流程结构等。
430 31
Apache Flink 流批融合技术介绍
|
2月前
|
消息中间件 Java Kafka
Flink-07 Flink Java 3分钟上手 滚动窗口 事件驱动 Kafka TumblingWindow GlobalWindow CountWindow
Flink-07 Flink Java 3分钟上手 滚动窗口 事件驱动 Kafka TumblingWindow GlobalWindow CountWindow
42 7
|
2月前
|
消息中间件 NoSQL Kafka
Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose
Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose
70 4
|
2月前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
80 1
|
2月前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
58 1

相关产品

  • 实时计算 Flink版
  • 推荐镜像

    更多