排查
当他告诉我这个现象的时候我就持怀疑态度,根据之前使用的经验 Pulsar 在官方文档以及 API 中都解释过:
只有当设置了消费的 ackTimeout
并超时消费时才会重复投递消息,默认情况下是关闭的,查看代码也确实没有开启。
那会不会是调用了 negativeAcknowledge()
方法呢(调用该方法也会触发重新投递),因为我们使了一个第三方库 github.com/majusko/pul… 只有当抛出异常时才会调用该方法。
查阅代码之后也没有地方抛出异常,甚至整个过程中都没看到异常产生;这就有点诡异了。
复现
为了捋清楚整个事情的来龙去脉,详细了解了他的使用流程;
其实也就是业务出现了 bug
,他在消息消费时 debug
然后进行单步调试,当走完一次调试后,没多久马上又收到了同样的消息。
但奇怪的是也不是每次 debug
后都能重复消费,我们都说如果一个 bug
能 100% 完全复现,那基本上就解决一大半了。
所以我们排查的第一步就是完全复现这个问题。
为了排除掉是 IDEA 的问题(虽然极大概率不太可能)既然是 debug
的时候产生的问题,那其实转换到代码也就是 sleep
嘛,所以我们打算在消费逻辑里直接 sleep
一段时间看能否复现。
经过测试,sleep
几秒到几十秒都无法复现,最后索性 sleep
一分钟,神奇的事情发生了,每次都成功复现!
既然能成功复现那就好说了,因为我自己的业务代码也有使用到 Pulsar
的地方,为了方便调试就准备在自己的项目里再复现一次。
结果诡异的事情再次发生,我这里又不能复现了。
虽然这才是符合预期的,但这就没法调了呀。
本着相信现代科学的前提,我们俩唯一的区别就是项目不一样了,为此我对比了两边的代码。
@PulsarConsumer( topic = xx, clazz = Xx.class, subscriptionType = SubscriptionType.Shared ) public void consume(Data msg) { log.info("consume msg:{}", msg.getOrderId()); Lock lock = redisLockRegistry.obtain(msg.getOrderId()); if (lock.tryLock()) { try { orderService.do(msg.getOrderId()); } catch (Exception e) { log.error("consumer msg:{} err:", msg.toString(), e); } finally { lock.unlock(); } } }
结果不出所料,同事那边的代码加了锁;一个基于 Redis 的分布式锁,这时我一拍大腿不会是解锁的时候超时了导致抛了异常吧。
为了验证这个问题,在能复现的基础上我在框架的 Pulsar
消费处打了断点:
果然破案了,异常提示已经非常清楚了:加锁已经过了超时时间。
进入异常后直接 negative
消息,同时异常也被吃掉了,所以之前没有发现。
查阅了 RedisLockRegistry
的源码,默认超时时间正好是一分钟,所以之前我们 sleep
几十秒也无法复现这个问题。
总结
事后我向同事了解了下为啥这里要加锁,因为我看下来完全没有加锁的必要;结果他是因为从别人那里复制的代码才加上的,压根没想那么多。
所以这事也能得出一些教训:
- ctrl C/V 虽然方便,但也得充分考虑自己的业务场景。
- 使用一些第三方 API 时,需要充分了解其作用、参数。