开发者社区> 问答> 正文

spark中的累加器是什么?

spark中的累加器是什么?

展开
收起
游客y244y7ln2rlpa 2021-12-06 23:08:11 231 0
1 条回答
写回答
取消 提交回答
  • spark中的累加器(accumulator) 是Spark中 提供的种分布式的变量机制,其原理类似于mapreduce,即分布式的改变,然后聚合这些改变。累加器的一个常见用途是在调试时对作业执行过程中的事件进行计数。

    2021-12-06 23:08:34
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载