开发者社区 问答 正文

Spark Streaming的容错性怎么样?

Spark Streaming的容错性怎么样?

展开
收起
芯在这 2021-12-07 22:49:52 325 分享 版权
1 条回答
写回答
取消 提交回答
  • 实时流处理系统需要长时间接收并处理数据,这个过程中出现异常是难以避免的,需要流程系统具备高容错性。Spark Streaming 一开始就考虑了两个方面。

    利用 Spark 自身的容错设计、存储级别和 RDD 抽象设计能够处理集群中任何 Worker 节点的故障

    Spark 运行多种运行模式,其 Driver 端可能运行在 Master 节点或者集群中的任意节点,这样让 Driver 端具备容错能力是很大的挑战,但是由于其接收的数据是按照批进行存储和处理,这些批次数据的元数据可以通过执行检查点的方式定期写入到可靠的存储中,在 Driver 端重新启动中恢复这些状态

    2021-12-07 22:50:07
    赞同 展开评论