开发者社区> 问答> 正文

如何 Flink 通过不同的hive_catalog,访问离线和实时两套集群的hive?

Hi, All

我是使用的flink1.13.1版本,我们有2套Hadoop集群,离线和实时集群。现在实时集群上的任务,想通过hive_catalog访问离线集群。

按照官网例子,我分别配置离线和实时的hive-conf-dir的不同路径,发现一只报错。如:

2021-08-27 13:50:22,902 INFO org.apache.hadoop.ipc.Client

[] - Retrying connect to server:

wx12-dsjrt-master001/xx.xx.xx.xx:8050. Already tried 6 time(s); retry

policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=50, sleepTime=1000

MILLISECONDS)。

大家在生产中是如何解决这种问题的呢?非常感谢!*来自志愿者整理的flink邮件归档

展开
收起
塔塔塔塔塔塔 2021-12-02 15:24:49 942 0
1 条回答
写回答
取消 提交回答
  • 你可能想要的是 tumble window 而不是 cumulate window*来自志愿者整理的FLINK邮件归档

    2021-12-02 16:10:16
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载