开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文
2 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    这个错误表明Flink SQL没有正确配置数据源,导致无法执行INSERT INTO语句。

    主要原因可能是:

    没有添加支持数据库表的Catalog和TableSource。

    Catalog/TableSource的jar版本与Flink不兼容。

    Catalog配置中缺少table.name等重要选项。

    建议操作:

    检查是否注册过Catalog及相关TableSource

    确认Catalog/TableSource jar版本与Flink一致

    额外配置catalog.default-database等选项

    重启Session刷新元数据

    尝试降级Catalog版本进行测试

    通过代码形式注册Catalog避免xml配置问题

    查看日志详细定位错误原因

    一般来说,Flink SQL执行Insert需要保证数据源注册完整。
    版本兼容也很重要,需要一致性实现。

    2023-08-10 23:09:32
    赞同 展开评论 打赏
  • 意中人就是我呀!

    "回答1:slot.name 应该是必须的参数,你看下PG的参数里有写。
    回答2:https://ververica.github.io/flink-cdc-connectors/release-2.4/content/connectors/postgres-cdc.html?highlight=slot
    此回答整理至钉群“Flink CDC 社区”。"

    2023-08-09 12:18:03
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载