开发者社区> 问答> 正文

Apache flink是否有与Spark HiveContext相同的api?

我已经阅读了有关Apache Flink 1.6的文档和参考资料,并希望找到一些类似Spark HiveContext的api来从Hive读取数据,但只能找到HDFS api和JDBC api。是否有与Spark HiveContext相同的api来连接Hive?

展开
收起
flink小助手 2018-11-28 16:37:09 2663 0
1 条回答
写回答
取消 提交回答
  • flink小助手会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关flink的问题及回答。

    "
    可以像这样使用HCatInputFormat:

    final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

    env.createInput(new HCatInputFormat<>(database, table));
    还需要添加依赖项:

    <groupId>org.apache.flink</groupId>
    <artifactId>flink-hcatalog</artifactId>
    <version>${flink.version}</version>
    <scope>provided</scope>

    "

    2019-07-17 23:16:53
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
CUDA MATH API 立即下载
API PLAYBOOK 立即下载
传统企业的“+互联网”-API服务在京东方的实践 立即下载

相关镜像