开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

DataWorks实时同步kafka 并行子任务 是怎么分配消费kafka的任务的。 是什么规则?

DataWorks实时同步kafka 并行子任务 是怎么分配消费kafka的任务的。 是一个什么规则?

展开
收起
wenti 2023-03-15 10:36:01 239 0
1 条回答
写回答
取消 提交回答
  • 默认情况下是一个线程号就对应一个partition,但是这个可以通过配置变为一个线程消费多个partition,另外如果任务在运行中topic做了partition扩容,也会有部分线程变为消费多个partition——该回答整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-03-15 13:52:16
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载

    相关实验场景

    更多