开发者社区> 问答> 正文

Spark Streaming中的JobGenerator的作用是什么?

Spark Streaming中的JobGenerator的作用是什么?

展开
收起
游客daliwbfb2wo66 2021-12-07 20:40:18 407 0
1 条回答
写回答
取消 提交回答
  • 1.通知ReceiverTracker将接收到的数据进行提交,在提交时采用synchronized关键字进行处理,保证每条数据被划入一个且只被划入一个批次中。

    2.要求DStreamGraph根据DSream依赖关系生成作业序列Seq[Job]。

    3.从第一步中ReceiverTracker获取本批次数据的元数据。

    4.把批处理时间time、作业序列Seq[Job]和本批次数据的元数据包装为JobSet,调用JobScheduler.submitJobSet(JobSet)提交给JobScheduler,JobScheduler将把这些作业发送给Spark核心进行处理,由于该执行为异步,因此本步执行速度将非常快。

    5.只要提交结束(不管作业是否被执行),SparkStreaming对整个系统做一个检查点(Checkpoint)

    2021-12-07 20:41:01
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载