开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

在Flink CDC中,导致输出到kafka的数据错误是哪里配置问题吗?

在Flink CDC中,pipeline mysql到kafkamysql类型decimal(16,2)iwEcAqNwbmcDAQTRA-oF0QO2BrAwT96teye4lQaKkkRrny0AB9IbU7IPCAAJomltCgAL0gAFFys.png_720x720q90.jpg
但flink日志里面 schema信息是decimal(19,0)iwEcAqNwbmcDAQTRB64F0QOUBrAhq8blhmg9HwaKkkRsdK0AB9IbU7IPCAAJomltCgAL0gAYDFI.png_720x720q90.jpg
导致输出到kafka的数据错误是哪里配置问题吗?

展开
收起
想去床上睡觉 2024-07-31 19:56:10 26 0
0 条回答
写回答
取消 提交回答

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载