问题一:flink-cdc 从数据库插入hudi表一万多条数据的过程中报错了,是不是要设置什么?
flink-cdc 从数据库插入hudi表一万多条数据的过程中报错了 “内存不足错误:超过GC开销限制 OutOfMemoryError: GC overhead limit exceeded” 明明我有32G内存,也不够吗,是不是要设置什么?
参考答案:
试试把数据刷出去的时间缩小,条数缩小。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/491982?spm=a2c6h.13066369.question.26.4d426d0cjMFB0d
问题二:flink-cdc 从数据库插入hudi表一万多条数据的过程中报错了“内存不足错误
flink-cdc 从数据库插入hudi表一万多条数据的过程中报错了“内存不足错误:超过GC开销限制 OutOfMemoryError: GC overhead limit exceeded”明明我有32G内存,也不够吗,是不是要设置什么
参考答案:
这么大的内存怎么都够了你用到32gwebui进去看看。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/492319?spm=a2c6h.13066369.question.27.4d426d0cI18C5o
问题三:请大家看一下以下问题是什么原因?
请问我使用Flink cdc 读mysql 然后jdbc 写入 mysql。想用upsert模式。但是使用官网上的 on duplicate key update 关键字 Flink报错说解析不了。请问是什么原因呢?FLink 1.13.x
参考答案:
flink,表写主键的话,自己就是upsert了。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/494720?spm=a2c6h.13066369.question.30.4d426d0cwk1Gtr
问题四:使用flink cdc监听一个mysql表的binlog,debezuim反序列化日志 报错,为什么
使用flink cdc监听一个mysql表的binlog,但是现在再该库下新增了一个表,但是由于字段类型不对,然后修改了字段,然后就导致 debezuim反序列化日志 报错,为什么?
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/484571?spm=a2c6h.13066369.question.31.4d426d0cY4aPfA
问题五:有没有遇到过使用flink-connector-mysql-cdc(2.3.0),flink版本:1.14.6 ,消费mysql的binlog数据有丢失数据的情况,找不出原因,程序不报错,莫名奇妙就是SCN少了,就缺数据了
有没有遇到过使用flink-connector-mysql-cdc(2.3.0),flink版本:1.14.6 ,消费mysql的binlog数据有丢失数据的情况,找不出原因,程序不报错,莫名奇妙就是SCN少了,就缺数据了
参考答案:
我们测试的oracle cdc 有丢。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/495494?spm=a2c6h.13066369.question.30.4d426d0cgnrDUR