开发者社区> 问答> 正文

flink 写hive的并行度只能为1

为什么目前flink写hive的并行度只能设置为1呢?*来自志愿者整理的flink邮件归档

展开
收起
JACKJACK 2021-12-08 16:14:14 1426 0
1 条回答
写回答
取消 提交回答
  • 对的是我!

    并行度为1的是discard sink,实际写数据的是filewriter算子*来自志愿者整理的flink邮件归档

    2021-12-08 16:55:13
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载