开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Hive Connector可以分为几个层面?

Hive Connector可以分为几个层面?

展开
收起
詹姆斯邦德00 2021-11-17 18:00:13 587 0
1 条回答
写回答
取消 提交回答
  • Hive Connector 可以分为2个层面: 首先在元数据上,我们通过 HiveCatalog 来对接Hive 元数据,同时我们提供 HiveTableSource、HiveTableSink 来读写 Hive 的表数据;

    其次,使用 Hive Connector 需要指定 Hive Catalog;

    使用 Hive Connector 需要添加一些额外的依赖,可以根据所使用的Hive 版本来选择对应的 Jar 包。

    资料来源:《Apache Flink 必知必会》,下载链接:https://developer.aliyun.com/topic/download?id=1189 

    2021-11-17 18:26:56
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载