开发者社区> 问答> 正文

Spark Streaming工作原理是什么?

Spark Streaming工作原理是什么?

展开
收起
游客daliwbfb2wo66 2021-12-07 20:03:37 271 0
1 条回答
写回答
取消 提交回答
  • 对于Spark Core它的核心就是RDD,对于Spark Streaming来说,它的核心是DStream,DStream类似于RDD,它实质上一系列的RDD的集合,DStream可以按照秒数将数据流进行批量的划分。首先从接收到流数据之后,将其划分为多个batch,然后提交给Spark集群进行计算,最后将结果批量输出到HDFS或者数据库以及前端页面展示等等。

    2021-12-07 20:03:56
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载