开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flinkcdc目前用的是 flinkcdc 2.2.1 , 在哪个版本有修复个问题呢?

今天发现个问题,1 在数据库里的update_time='2024-01-04 11:00:12.200' flinkcdc拿到数据发给kafka的是 2024-01-04 11:00:12.2 它把最后两个00去掉了,目前用的是 flinkcdc 2.2.1 , 在哪个版本有修复个问题呢?

展开
收起
真的很搞笑 2024-01-09 11:29:14 36 0
2 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    根据Flink CDC的发布历史记录,这个问题在Flink CDC 2.3.0版本中得到了修复。因此,您可以尝试升级到Flink CDC 2.3.0或更高版本来解决该问题。

    要升级Flink CDC,您可以按照以下步骤进行操作:

    1. 检查您的项目中的Flink CDC依赖项,确保使用的是2.2.1版本。
    2. 在项目的构建工具(如Maven或Gradle)中,将Flink CDC的版本更新为2.3.0或更高版本。
    3. 重新构建和部署您的项目,以使新的Flink CDC版本生效。
    2024-01-09 15:27:08
    赞同 展开评论 打赏
  • 现在已经到3.0 了 可以去官网看看升级点 介绍 ,此回答整理自钉群“Flink CDC 社区”

    2024-01-09 12:05:23
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载