问题一:Flink Cdc的文档网站是不是挂了?
Flink Cdc的文档网站是不是挂了?
参考答案:
先用这个
https://apache.github.io/flink-cdc/master/content/overview/index.html
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/605775
问题二:为啥从mysqlcdc流中获取的timestamp是-9223372036854775808的?
为啥从mysqlcdc流中获取的timestamp是-9223372036854775808的?用的官方的json序列化,是想获取流的处理时间,但是发现都是负数。
参考答案:
1970年以前的时间是负数。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/605773
问题三:Flink CDC 里第五步一直没flush compelete会是什么原因?
Flink CDC 里第五步一直没flush compelete会是什么原因?
参考答案:
向taskmanager发送rpc消息 通知sink把数据刷到数据库 这里卡住了话 那你看看pekko的通信时间是不是设置的很大 导致jm一直在等待tm的消息 。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/605769
问题四:flink 1.18 的用哪个版本的cdc?
flink 1.18 的用哪个版本的cdc?
参考答案:
2.4 ,
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/605129
问题五:在弄flink on k8s的时候遇到一个很奇怪的问题,你们在使用的时候遇到过这个问题吗?
在弄flink on k8s的时候遇到一个很奇怪的问题,我们写在/opt/flink/conf/flink-conf.yaml里的配置,在k8s里会被flink重新生成,这时候的外面的配置就渲染不进来,只有flink-run -d的配置能渲染进去,其他配置都读不到,你们在使用的时候遇到过这个问题吗?
参考答案:
这个问题可能是由于 Flink 在 Kubernetes 上的配置加载机制导致的。在 Kubernetes 上运行 Flink 时,Flink 会优先加载容器内部的配置文件,而不是宿主机上的配置文件。
解决这个问题的一种常见方法是在 Kubernetes Pod 中使用 ConfigMap 或 Secret 来注入配置文件。你可以创建一个 ConfigMap 来包含你的 flink-conf.yaml 配置文件,并在 Flink 的 Deployment 或 StatefulSet 中将这个 ConfigMap 挂载到容器内部的相应路径。这样,Flink 在启动时会加载容器内的配置文件,而不是默认的 /opt/flink/conf/flink-conf.yaml。
另外,确保在 Flink 的配置中正确指定了配置文件的路径。你可能需要检查一下 Flink 在 Kubernetes 上的启动脚本或配置文件,以确保它们引用了正确的配置文件路径。
如果你们使用的是 Helm Chart 来部署 Flink,也可以在 Helm Chart 中配置相应的值,以确保 Flink 在启动时加载正确的配置文件。
总的来说,要解决这个问题,你需要确保 Flink 在 Kubernetes 上能够正确加载你想要的配置文件,并且没有被容器内部的自动生成的配置文件覆盖掉。
关于本问题的更多回答可点击进行查看: