开发者社区> 问答> 正文

直接通过kafka source table表名直接引用报错,提示hive catalog内没这张表

我这面在使用hivecatalog将kafka数据落地到hive,但现在有一个问题是,我不想保存kafka source table元数据(默认自动保存),通过创建视图或临时表的方式启动flink任务,这时候直接通过kafka source table表名直接引用报错,提示hive catalog内没这张表,这种情况我改怎么引用我的kafka未持久化表哪? *来自志愿者整理的flink邮件归档

展开
收起
游客sadna6pkvqnz6 2021-12-07 17:25:33 974 0
1 条回答
写回答
取消 提交回答
  • 可以把kafka的表保存在内置的in-memory catalog里,名字应该是default_catalog,这样就不会持久化了。或者用create temporary table的方式应该也可以。*来自志愿者整理的flink

    2021-12-07 20:59:42
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载