Storm-源码分析-acker (backtype.storm.daemon.acker)

简介:

backtype.storm.daemon.acker 
设计的巧妙在于, 不用分别记录和track, stream过程中所有的tuple, 而只需要track root tuple, 而所有中间过程都通过异或更新track entry

acker-init, 在spout发送一个tuple时触发, 初始化这个root tuple的track entry  
acker-ack, 在blot ack一个tuple的时候触发, 会对该tuple的anchors-to-ids中记录的每个(root, edge)进行ack, 并出于优化还会附带登记新的edge(对acker透明, 在发送前已经完成) 
acker-fail, 任一个过程中的tuple fail, 都会导致这个root tuple失败

 

(defn mk-acker-bolt []
  (let [output-collector (MutableObject.)
        pending (MutableObject.)]
    (reify IBolt
      (^void prepare [this ^Map storm-conf ^TopologyContext context ^OutputCollector collector]
               (.setObject output-collector collector)
               (.setObject pending (RotatingMap. 2)) ;;用RotatingMap来缓存每个tuple的track信息
               )
      (^void execute [this ^Tuple tuple]
             (let [^RotatingMap pending (.getObject pending)
                   stream-id (.getSourceStreamId tuple)]  ;;从ack tuple中取出streamid
               (if (= stream-id Constants/SYSTEM_TICK_STREAM_ID) ;;收到system_tick_stream, rotate pending, spout的pending和acker的pending超期时间是一样的, 都取决于system-tick
                 (.rotate pending)
                 (let [id (.getValue tuple 0) ;;else,其他的stream,取出tuple id
                       ^OutputCollector output-collector (.getObject output-collector)
                       curr (.get pending id) ;;取出相应tuple的track entry
                       curr (condp = stream-id
                                ACKER-INIT-STREAM-ID (-> curr  ;;初始化tuple的track entry
                                                         (update-ack (.getValue tuple 1)) ;;更新entry中的track value
                                                         (assoc :spout-task (.getValue tuple 2))) ;;记录该tuple和spout-task的关系, 这样在ack或fail的时候才知道通知谁
                                ACKER-ACK-STREAM-ID (update-ack curr (.getValue tuple 1));;ack, 用val和原来的entry value做异或
                                ACKER-FAIL-STREAM-ID (assoc curr :failed true))] ;;fail, 直接把entry的:failed设true
                   (.put pending id curr)
                   (when (and curr (:spout-task curr))
                     (cond (= 0 (:val curr)) ;;val为0, 表示该tuple的所有edge都被成功ack
                           (do
                             (.remove pending id) ;;从pending中删除track entry, 并向相应的spout-task发送ack消息
                             (acker-emit-direct output-collector
                                                (:spout-task curr)
                                                ACKER-ACK-STREAM-ID
                                                [id]
                                                ))
                           (:failed curr) ;;:failed为true, 表示该tuple失败
                           (do
                             (.remove pending id) ;;从pending中删除track entry, 并向相应的spout-task发送fail消息 
                             (acker-emit-direct output-collector
                                                (:spout-task curr)
                                                ACKER-FAIL-STREAM-ID
                                                [id]
                                                ))
                           ))
                   (.ack output-collector tuple) ;;acker bolt也是bolt, 所以最后完成对该ack tuple的ack
                   ))))
      (^void cleanup [this]
        )
      )))

 

(defn- update-ack [curr-entry val]
  (let [old (get curr-entry :val 0)] ;;取出entry中的value值,默认设为0
    (assoc curr-entry :val (bit-xor old val)) ;;将old和新val异或, 赋给entry的value
    ))

本文章摘自博客园,原文发布日期:2013-08-06
相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
5月前
|
分布式计算 Scala 流计算
190 Spark与Storm的对比
190 Spark与Storm的对比
17 0
|
消息中间件 机器学习/深度学习 分布式计算
安装Apache Storm
安装Apache Storm
108 0
|
存储 SQL 分布式计算
storm&spark2|学习笔记
快速学习 storm&spark2
88 0
storm&spark2|学习笔记
|
SQL 机器学习/深度学习 数据采集
storm&spark1|学习笔记
快速学习 storm&spark1
71 0
storm&spark1|学习笔记