开发者社区> 问答> 正文

Spark Streaming中的JobGenerator的作用是什么?

Spark Streaming中的JobGenerator的作用是什么?

展开
收起
游客daliwbfb2wo66 2021-12-07 20:14:49 362 0
1 条回答
写回答
取消 提交回答
  • JobGenerator会每隔我们定义的batch时间间隔,就会去ReceiverTracker中获取经过这个batch时间间隔内的数据信息blocks,将这些block聚合成一个batch,然后这个batch会被创建为一个RDD。

    这样每隔一个batch时间间隔,都会将在这个时间间隔内接收的数据形成一个RDD,这样就会产生一个RDD序列,每个RDD代表数据流中一个时间间隔内的数据。正是这个RDD序列,形成SparkStreaming应用的输入DStream。

    2021-12-07 20:15:16
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载