问题一:Flink这个bug同步修复过吗?
Flink这个bug同步修复过吗?
参考回答:
试下这个参数 ,将 debezium这个参数 "connect.keep.alive.interval.ms" 设置为 30000 试下。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/614523
问题二:Flink提示错误如何解决?
Flink提示错误如何解决?
参考回答:
因为你的kafka源表没有指定group.id,所以报错,目前我已知的解决方法有两个
一:使用临时表的方式
二:删除表,重新创建(不建议)
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/614522
问题三:在Flink我用 kafka 元数据,深度检查时,已经加了但是仍然报错;请问还要设置什么吗?
在Flink我用 kafka 元数据,深度检查时,已经加了但是仍然报错;请问还要设置什么吗?
参考回答:
你看一下那个gropu.id的参数,应该是表名,但是您看看new_kafka的这个参数,并不是您的源表,所以catalog有问题,这个参数是错误的。所以您检验失败。方法:创建新的kafka的catalog时,不指定group.id。CREATE CATALOG WITH(
'type'='kafka',
'properties.bootstrap.servers'='',
'format'='json',
'default-database'='',
'key.fields-prefix'='',
'value.fields-prefix'='',
'timestamp-format.standard'='',
'infer-schema.flatten-nested-columns.enable'='',
'infer-schema.primitive-as-string'='',
'infer-schema.parse-key-error.field-name'='',
'infer-schema.compacted-topic-as-upsert-table'='true',
'max.fetch.records'='100',
'aliyun.kafka.accessKeyId'='',
'aliyun.kafka.accessKeySecret'='',
'aliyun.kafka.instanceId'='',
'aliyun.kafka.endpoint'='',
'aliyun.kafka.regionId'=''
);用这个,修改一下参数,试试。参考https://help.aliyun.com/zh/flink/user-guide/manage-kafka-json-catalogs?spm=a2c4g.11186623.0.i12
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/614518
问题四:flink CDAS同步数据至SR serverless ,只把表结构同步过去,就报错,如何解决?
flink CDAS同步数据至SR serverless ,只把表结构同步过去,就报错,如何解决?
参考回答:
文档端口问题,load-url不应该是9030,而是8030。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/614512
问题五:Flink报这个错误,但我查了一下作业没有产生反压,请问这个是为什么呢?
Flink报这个错误,但我查了一下作业没有产生反压,请问这个是为什么呢?
参考回答:
我看数据量不大,应该不是反压导致的;很大概率是网络问题
可以调大mysql server 的网络参数 set global slave_net_timeout = 120; (default was 30sec) set global thread_pool_idle_timeout = 120; 详细可以看 debezium 的文档 https://debezium.io/documentation/faq/#what_is_causing_intermittent_eventdatadeserializationexceptions_with_the_mysql_connector/ 。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/614509