flink-cdc报错-问答-阿里云开发者社区-阿里云

开发者社区> 问答> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

flink-cdc报错

2021-12-08 11:42:46 483 1

大家好,我现在遇到了一个问题,flink在通过cdc的方式读取binlog的方式进行读取日志的时候报错,具体报错如下:

---------------------------------------------------------------------------------------------------------------------------------------------------- 2021-01-13 15:45:21,920 INFO org.apache.kafka.connect.runtime.WorkerConfig [] - Worker configuration property 'internal.key.converter' is deprecated and may be removed in an upcoming release. The specified value 'org.apache.kafka.connect.json.JsonConverter' matches the default, so this property can be safely removed from the worker configuration. 2021-01-13 15:45:21,920 INFO org.apache.kafka.connect.runtime.WorkerConfig [] - Worker configuration property 'internal.value.converter' is deprecated and may be removed in an upcoming release. The specified value 'org.apache.kafka.connect.json.JsonConverter' matches the default, so this property can be safely removed from the worker configuration. 2021-01-13 15:45:28,936 ERROR io.debezium.connector.mysql.SnapshotReader [] - Failed due to error: Aborting snapshot due to error when last running 'UNLOCK TABLES': io.debezium.ddl.parser.mysql.generated.MySqlParser and io.debezium.ddl.parser.mysql.generated.MySqlParser$StringDataTypeContext disagree on InnerClasses attribute org.apache.kafka.connect.errors.ConnectException: io.debezium.ddl.parser.mysql.generated.MySqlParser and io.debezium.ddl.parser.mysql.generated.MySqlParser$StringDataTypeContext disagree on InnerClasses attribute at io.debezium.connector.mysql.AbstractReader.wrap(AbstractReader.java:230) ~[yd-mysql-mysql.jar:?] at io.debezium.connector.mysql.AbstractReader.failed(AbstractReader.java:207) ~[yd-mysql-mysql.jar:?] at io.debezium.connector.mysql.SnapshotReader.execute(SnapshotReader.java:831) ~[yd-mysql-mysql.jar:?] at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) [?:1.8.0_192] at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) [?:1.8.0_192] at java.lang.Thread.run(Thread.java:748) [?:1.8.0_192]


不知有没有热心的朋友遇到类似的问题的,希望能够获取到一点建议,非常感谢*来自志愿者整理的flink邮件归档

取消 提交回答
全部回答(1)
  • 雪哥哥
    2021-12-08 15:32:17

    io.debezium 包版本 是你自己配置的? 还是 官方的?来自志愿者整理的flink邮件归档

    0 0
相关问答

1

回答

用户用了 Flink CDC 后遇到的第一个痛点是什么?

2022-01-19 16:20:11 785浏览量 回答数 1

1

回答

用户用了 Flink CDC 后遇到的第三个痛点是什么?

2022-01-19 16:20:55 727浏览量 回答数 1

1

回答

用户用了 Flink CDC 后遇到的第二个痛点是什么?

2022-01-19 16:20:28 690浏览量 回答数 1

1

回答

Flink CDC中的CDC是什么意思?

2022-01-19 15:15:09 4598浏览量 回答数 1

1

回答

有关 Flink CDC 的介绍和教程可以在哪里参考到?

2022-01-19 16:35:16 1561浏览量 回答数 1

1

回答

Flink CDC 的下游支持了哪些数据源?

2022-01-19 16:09:35 781浏览量 回答数 1

1

回答

Flink CDC 的核心特性有哪些?

2022-01-19 16:17:42 612浏览量 回答数 1

1

回答

Flink CDC 的亮点之一是什么?

2022-01-19 16:21:12 623浏览量 回答数 1

1

回答

flink 1.11 cdc相关问题

2021-12-07 10:07:48 712浏览量 回答数 1

1

回答

Flink1.11支持CDC了是么? #Flink

2020-06-10 23:24:45 1727浏览量 回答数 1
+关注
文章
问答
问答排行榜
最热
最新
相关电子书
更多
Flink SQL in 2020
立即下载
Flink Streaming SQL 2018
立即下载
《基于Apache Hudi的CDC数据入湖》
立即下载