开发者社区> 问答> 正文

Flink SQL一个Job使用多个Catalog的例子

大家好。 我没有在官网找到个Job使用多个Catalog的例子。 我想在一个Job里使用普通的Catalog注册个Kafka Source然后,将数据发送Iceberg Sink表。这个Sink表 注册在另一个Iceberg + Hive 的Catalog 中。 注册代码如下。 CREATE CATALOG hive_catalog WITH ( 'type'='iceberg', 'catalog-type'='hive', 'uri'='thrift://kudu1:9083', 'clients'='2', 'property-version'='1', 'warehouse'='hdfs://ns1//user/hive/warehouse' ); 之所以使用两个Catalog是因为我发现Kafka Source无法注册到这种类型为Iceberg的Hive Catalog中。我必须得换一个Catalog。 目前在IDEA下我还没跑起来。*来自志愿者整理的flink邮件归档

展开
收起
毛毛虫雨 2021-12-08 11:39:25 1220 0
1 条回答
写回答
取消 提交回答
  • 我已经解决了。USE其他Catalog再建表即可。*来自志愿者整理的flink邮件归档

    2021-12-08 16:08:13
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
SQL Server在电子商务中的应用与实践 立即下载
GeoMesa on Spark SQL 立即下载
原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载