为什么通过spark 写 hudi 同步 hive 设置的主键是 通过join写过来的

为什么通过spark 写 hudi 同步 hive 设置的主键是 通过join写过来的 然后 数据进入hudi后 通过flink 查询 就提示 找不到主键 此时 spark 查询是正常 如果通过 单独生成主键比如 直接定义一个数值 此时 flink是可以查询。做了测试 hudi主键 必须是 int 或者 bigint 类型 并且不能通过 join的方式传入 否则 spark写入进去后 flink 读取 立马提示找不到主键 不知道大家有没有遇到这个问题的 这是 约束问题还是?

展开
收起
滴滴滴~ 2023-03-29 17:18:07 429 发布于辽宁 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 用cow表试试。 此答案整理自钉群“Flink CDC 社区”

    2023-03-29 18:06:35 举报
    赞同 展开评论

    评论

    全部评论 (0)

    登录后可评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等