05篇 Nacos Client服务订阅之事件机制剖析

简介: 05篇 Nacos Client服务订阅之事件机制剖析

上篇文章,我们分析了Nacos客户端订阅的核心流程:Nacos客户端通过一个定时任务,每6秒从注册中心获取实例列表,当发现实例发生变化时,发布变更事件,订阅者进行业务处理,然后更新内存中和本地的缓存中的实例。


这篇文章为服务订阅的第二篇,我们重点来分析,定时任务获取到最新实例列表之后,整个事件机制是如何处理的。


回顾整个流程

先回顾一下客户端服务订阅的基本流程:



image.png在第一步调用subscribe方法时,会订阅一个EventListener事件。而在定时任务UpdateTask定时获取实例列表之后,会调用ServiceInfoHolder#processServiceInfo方法对ServiceInfo进行本地处理,这其中就包括和事件处理。


监听事件的注册

在subscribe方法中,通过如下方式进行了监听事件的注册:


@Override
public void subscribe(String serviceName, String groupName, List<String> clusters, EventListener listener)
        throws NacosException {
    if (null == listener) {
        return;
    }
    String clusterString = StringUtils.join(clusters, ",");
    changeNotifier.registerListener(groupName, serviceName, clusterString, listener);
    clientProxy.subscribe(serviceName, groupName, clusterString);
}

这里的changeNotifier.registerListener便是进行具体的事件注册逻辑。追进去看一下实现源码:

// InstancesChangeNotifier
public void registerListener(String groupName, String serviceName, String clusters, EventListener listener) {
    String key = ServiceInfo.getKey(NamingUtils.getGroupedName(serviceName, groupName), clusters);
    ConcurrentHashSet<EventListener> eventListeners = listenerMap.get(key);
    if (eventListeners == null) {
        synchronized (lock) {
            eventListeners = listenerMap.get(key);
            if (eventListeners == null) {
                eventListeners = new ConcurrentHashSet<EventListener>();
                // 将EventListener缓存到listenerMap
                listenerMap.put(key, eventListeners);
            }
        }
    }
    eventListeners.add(listener);
}

这部分逻辑在上篇文章中已经分析过了,这里重点看serviceInfoHolder#processServiceInfo中的业务逻辑处理。先看流程图,然后看代码。

image.png上述逻辑简单说就是:判断一下新的ServiceInfo数据是否正确,是否发生了变化。如果数据格式正确,且发生的变化,那就发布一个InstancesChangeEvent事件,同时将ServiceInfo写入本地缓存。

下面看一下代码实现:

public ServiceInfo processServiceInfo(ServiceInfo serviceInfo) {
    String serviceKey = serviceInfo.getKey();
    if (serviceKey == null) {
        return null;
    }
    ServiceInfo oldService = serviceInfoMap.get(serviceInfo.getKey());
    if (isEmptyOrErrorPush(serviceInfo)) {
        //empty or error push, just ignore
        return oldService;
    }
    // 缓存服务信息
    serviceInfoMap.put(serviceInfo.getKey(), serviceInfo);
    // 判断注册的实例信息是否已变更
    boolean changed = isChangedServiceInfo(oldService, serviceInfo);
    if (StringUtils.isBlank(serviceInfo.getJsonFromServer())) {
        serviceInfo.setJsonFromServer(JacksonUtils.toJson(serviceInfo));
    }
    // 通过prometheus-simpleclient监控服务缓存Map的大小
    MetricsMonitor.getServiceInfoMapSizeMonitor().set(serviceInfoMap.size());
    // 服务实例已变更
    if (changed) {
        NAMING_LOGGER.info("current ips:(" + serviceInfo.ipCount() + ") service: " + serviceInfo.getKey() + " -> "
                + JacksonUtils.toJson(serviceInfo.getHosts()));
        // 添加实例变更事件,会被推动到订阅者执行
        NotifyCenter.publishEvent(new InstancesChangeEvent(serviceInfo.getName(), serviceInfo.getGroupName(),
                serviceInfo.getClusters(), serviceInfo.getHosts()));
        // 记录Service本地文件
        DiskCache.write(serviceInfo, cacheDir);
    }
    return serviceInfo;
}

可以对照流程图和代码中的注释部分进行理解这个过程。

我们要讲的重点是服务信息变更之后,发布的InstancesChangeEvent,也就是流程图中标红的部分。

事件追踪

上面的事件是通过NotifyCenter进行发布的,NotifyCenter中的核心流程如下:image.pngNotifyCenter中进行事件发布,发布的核心逻辑是:


根据InstancesChangeEvent事件类型,获得对应的CanonicalName;

将CanonicalName作为Key,从NotifyCenter#publisherMap中获取对应的事件发布者(EventPublisher);

EventPublisher将InstancesChangeEvent事件进行发布。

NotifyCenter中的核心代码实现如下:


private static boolean publishEvent(final Class<? extends Event> eventType, final Event event) {
    if (ClassUtils.isAssignableFrom(SlowEvent.class, eventType)) {
        return INSTANCE.sharePublisher.publish(event);
    }
    // 根据InstancesChangeEvent事件类型,获得对应的CanonicalName;
    final String topic = ClassUtils.getCanonicalName(eventType);
    // 将CanonicalName作为Key,从NotifyCenter#publisherMap中获取对应的事件发布者(EventPublisher);
    EventPublisher publisher = INSTANCE.publisherMap.get(topic);
    if (publisher != null) {
        // EventPublisher将InstancesChangeEvent事件进行发布。
        return publisher.publish(event);
    }
    LOGGER.warn("There are no [{}] publishers for this event, please register", topic);
    return false;
}

上述代码中的INSTANCE为NotifyCenter的单例模式实现。那么,这里的publisherMap中key(CanonicalName)和value(EventPublisher)之间的关系是什么时候建立的呢?


这个是在NacosNamingService实例化时调用init方法中进行绑定的:


// Publisher的注册过程在于建立InstancesChangeEvent.class与EventPublisher的关系。

NotifyCenter.registerToPublisher(InstancesChangeEvent.class, 16384);

1

2

registerToPublisher方法默认采用了DEFAULT_PUBLISHER_FACTORY来进行构建。


public static EventPublisher registerToPublisher(final Class<? extends Event> eventType, final int queueMaxSize) {

   return registerToPublisher(eventType, DEFAULT_PUBLISHER_FACTORY, queueMaxSize);

}

1

2

3

如果查看NotifyCenter中静态代码块,会发现DEFAULT_PUBLISHER_FACTORY默认构建的EventPublisher为DefaultPublisher。


至此,我们得知,在NotifyCenter中它维护了事件名称和事件发布者的关系,而默认的事件发布者为DefaultPublisher。


DefaultPublisher的事件发布

查看DefaultPublisher的源码,会发现它继承自Thread,也就是说它是一个线程类。同时,它又实现了EventPublisher,也就是我们前面提到的发布者。


public class DefaultPublisher extends Thread implements EventPublisher {}

1

在DefaultPublisher的init方法实现如下:


@Override
public void init(Class<? extends Event> type, int bufferSize) {
    // 守护线程
    setDaemon(true);
    // 设置线程名字
    setName("nacos.publisher-" + type.getName());
    this.eventType = type;
    this.queueMaxSize = bufferSize;
    // 阻塞队列初始化
    this.queue = new ArrayBlockingQueue<>(bufferSize);
    start();
}

也就是说,当DefaultPublisher被初始化时,是以守护线程的方式运作的,其中还初始化了一个阻塞队列,队列的默认大小为16384。

最后调用了start方法:

@Override
public synchronized void start() {
    if (!initialized) {
        // start just called once
        super.start();
        if (queueMaxSize == -1) {
            queueMaxSize = ringBufferSize;
        }
        initialized = true;
    }
}

start方法中调用了super.start,此时等于启动了线程,会执行对应的run方法。

run方法中只调用了如下方法:

void openEventHandler() {
    try {
        // This variable is defined to resolve the problem which message overstock in the queue.
        int waitTimes = 60;
        // for死循环不断的从队列中取出Event,并通知订阅者Subscriber执行Event
        // To ensure that messages are not lost, enable EventHandler when
        // waiting for the first Subscriber to register
        for (; ; ) {
            if (shutdown || hasSubscriber() || waitTimes <= 0) {
                break;
            }
            ThreadUtils.sleep(1000L);
            waitTimes--;
        }
        for (; ; ) {
            if (shutdown) {
                break;
            }
            // // 从队列取出Event
            final Event event = queue.take();
            receiveEvent(event);
            UPDATER.compareAndSet(this, lastEventSequence, Math.max(lastEventSequence, event.sequence()));
        }
    } catch (Throwable ex) {
        LOGGER.error("Event listener exception : ", ex);
    }
}

这里写了两个死循环,第一个死循环可以理解为延时效果,也就是说线程启动时最大延时60秒,在这60秒中每隔1秒判断一下当前线程是否关闭,是否有订阅者,是否超过60秒。如果满足一个条件,就可以提前跳出死循环。


而第二个死循环才是真正的业务逻辑处理,会从阻塞队列中取出一个事件,然后通过receiveEvent方法进行执行。


那么,队列中的事件哪儿来的呢?此时,你可能已经想到刚才DefaultPublisher的发布事件方法被调用了。来看看它的publish方法实现:


@Override
public boolean publish(Event event) {
    checkIsStart();
    boolean success = this.queue.offer(event);
    if (!success) {
        LOGGER.warn("Unable to plug in due to interruption, synchronize sending time, event : {}", event);
        receiveEvent(event);
        return true;
    }
    return true;
}

可以看到,DefaultPublisher的publish方法的确就是往阻塞队列中存入事件。这里有个分支逻辑,如果存入失败,会直接调用receiveEvent,和从队列中取出事件执行的方法一样。可以理解为,如果向队列中存入失败,则立即执行,不走队列了。


最后,再来看看receiveEvent方法的实现:


void receiveEvent(Event event) {
    final long currentEventSequence = event.sequence();
    if (!hasSubscriber()) {
        LOGGER.warn("[NotifyCenter] the {} is lost, because there is no subscriber.");
        return;
    }
    // 通知订阅者执行Event
    // Notification single event listener
    for (Subscriber subscriber : subscribers) {
        // Whether to ignore expiration events
        if (subscriber.ignoreExpireEvent() && lastEventSequence > currentEventSequence) {
            LOGGER.debug("[NotifyCenter] the {} is unacceptable to this subscriber, because had expire",
                    event.getClass());
            continue;
        }
        // Because unifying smartSubscriber and subscriber, so here need to think of compatibility.
        // Remove original judge part of codes.
        notifySubscriber(subscriber, event);
    }
}

这里最主要的逻辑就是遍历DefaultPublisher的subscribers(订阅者集合),然后执行通知订阅者的方法。


那么有朋友要问了这subscribers中的订阅者哪里来的呢?这个还要回到NacosNamingService的init方法中:


// 将Subscribe注册到Publisher

NotifyCenter.registerSubscriber(changeNotifier);

1

2

该方法最终会调用NotifyCenter的addSubscriber方法:


private static void addSubscriber(final Subscriber consumer, Class<? extends Event> subscribeType,
        EventPublisherFactory factory) {
    final String topic = ClassUtils.getCanonicalName(subscribeType);
    synchronized (NotifyCenter.class) {
        // MapUtils.computeIfAbsent is a unsafe method.
        MapUtil.computeIfAbsent(INSTANCE.publisherMap, topic, factory, subscribeType, ringBufferSize);
    }
    // 获取时间对应的Publisher
    EventPublisher publisher = INSTANCE.publisherMap.get(topic);
    if (publisher instanceof ShardedEventPublisher) {
        ((ShardedEventPublisher) publisher).addSubscriber(consumer, subscribeType);
    } else {
        // 添加到subscribers集合
        publisher.addSubscriber(consumer);
    }
}

其中核心逻辑就是将订阅事件、发布者、订阅者三者进行绑定。而发布者与事件通过Map进行维护、发布者与订阅者通过关联关系进行维护。

发布者找到了,事件也有了,最后看一下notifySubscriber方法:

@Override
public void notifySubscriber(final Subscriber subscriber, final Event event) {
    LOGGER.debug("[NotifyCenter] the {} will received by {}", event, subscriber);
    // 执行订阅者Event
    final Runnable job = () -> subscriber.onEvent(event);
    final Executor executor = subscriber.executor();
    if (executor != null) {
        executor.execute(job);
    } else {
        try {
            job.run();
        } catch (Throwable e) {
            LOGGER.error("Event callback exception: ", e);
        }
    }
}

逻辑比较简单,如果订阅者定义了Executor,那么使用它定义的Executor进行事件的执行,如果没有,那就创建一个线程进行执行。


至此,整个服务订阅的事件机制完成。


小结

整体来看,整个服务订阅的事件机制还是比较复杂的,因为用到了事件的形式,逻辑就比较绕,而且这期间还掺杂了守护线程,死循环,阻塞队列等。需要重点理解NotifyCenter对事件发布者、事件订阅者和事件之间关系的维护,而这一关系的维护的入口就位于NacosNamingService的init方法当中。


下面再梳理一下几个核心流程:


ServiceInfoHolder中通过NotifyCenter发布了InstancesChangeEvent事件;


NotifyCenter中进行事件发布,发布的核心逻辑是:


根据InstancesChangeEvent事件类型,获得对应的CanonicalName;

将CanonicalName作为Key,从NotifyCenter#publisherMap中获取对应的事件发布者(EventPublisher);

EventPublisher将InstancesChangeEvent事件进行发布。

InstancesChangeEvent事件发布:


通过EventPublisher的实现类DefaultPublisher进行InstancesChangeEvent事件发布;

DefaultPublisher本身以守护线程的方式运作,在执行业务逻辑前,先判断该线程是否启动;

如果启动,则将事件添加到BlockingQueue中,队列默认大小为16384;

添加到BlockingQueue成功,则整个发布过程完成;

如果添加失败,则直接调用DefaultPublisher#receiveEvent方法,接收事件并通知订阅者;

通知订阅者时创建一个Runnable对象,执行订阅者的Event。

Event事件便是执行订阅时传入的事件;

如果添加到BlockingQueue成功,则走另外一个业务逻辑:


DefaultPublisher初始化时会创建一个阻塞(BlockingQueue)队列,并标记线程启动;

DefaultPublisher本身是一个Thread,当执行super.start方法时,会调用它的run方法;

run方法的核心业务逻辑是通过openEventHandler方法处理的;

openEventHandler方法通过两个for循环,从阻塞队列中获取时间信息;

第一个for循环用于让线程启动时在60s内检查执行条件;

第二个for循环为死循环,从阻塞队列中获取Event,并调用DefaultPublisher#receiveEvent方法,接收事件并通知订阅者;

Event事件便是执行订阅时传入的事件;



目录
相关文章
|
27天前
|
数据管理 Nacos 开发者
"Nacos架构深度解析:一篇文章带你掌握业务层四大核心功能,服务注册、配置管理、元数据与健康检查一网打尽!"
【10月更文挑战第23天】Nacos 是一个用于服务注册发现和配置管理的平台,支持动态服务发现、配置管理、元数据管理和健康检查。其业务层包括服务注册与发现、配置管理、元数据管理和健康检查四大核心功能。通过示例代码展示了如何在业务层中使用Nacos,帮助开发者构建高可用、动态扩展的微服务生态系统。
74 0
|
27天前
|
SQL 关系型数据库 数据库连接
"Nacos 2.1.0版本数据库配置写入难题破解攻略:一步步教你排查连接、权限和配置问题,重启服务轻松解决!"
【10月更文挑战第23天】在使用Nacos 2.1.0版本时,可能会遇到无法将配置信息写入数据库的问题。本文将引导你逐步解决这一问题,包括检查数据库连接、用户权限、Nacos配置文件,并提供示例代码和详细步骤。通过这些方法,你可以有效解决配置写入失败的问题。
53 0
|
3月前
|
负载均衡 监控 Java
SpringCloud常见面试题(一):SpringCloud 5大组件,服务注册和发现,nacos与eureka区别,服务雪崩、服务熔断、服务降级,微服务监控
SpringCloud常见面试题(一):SpringCloud 5大组件,服务注册和发现,nacos与eureka区别,服务雪崩、服务熔断、服务降级,微服务监控
SpringCloud常见面试题(一):SpringCloud 5大组件,服务注册和发现,nacos与eureka区别,服务雪崩、服务熔断、服务降级,微服务监控
|
4月前
|
监控 安全 网络安全
inishConnect(..) failed: Connection refused,服务本地正常服务器网关报400,nacos服务实例不能下线
总之,这种问题需要通过多方面的检查和校验来定位和解决,并可能需要结合实际环境的具体情况来进行相应的调整。在处理分布式系统中这类问题时,耐心和细致的调试是必不可少的。
105 13
|
3月前
|
Kubernetes Nacos 微服务
【技术难题破解】Nacos v2.2.3 + K8s 微服务注册:强制删除 Pod 却不消失?!7步排查法+实战代码,手把手教你解决Nacos Pod僵死问题,让服务瞬间满血复活!
【8月更文挑战第15天】Nacos作为微服务注册与配置中心受到欢迎,但有时会遇到“v2.2.3 k8s 微服务注册nacos强制删除 pod不消失”的问题。本文介绍此现象及其解决方法,帮助开发者确保服务稳定运行。首先需检查Pod状态与事件、配置文件及Nacos配置,确认无误后可调整Pod生命周期管理,并检查Kubernetes版本兼容性。若问题持续,考虑使用Finalizers、审查Nacos日志或借助Kubernetes诊断工具。必要时,可尝试手动强制删除Pod。通过系统排查,通常能有效解决此问题。
78 0
|
3月前
|
Java Nacos 开发工具
【Nacos】心跳断了怎么办?!8步排查法+实战代码,手把手教你解决Nacos客户端不发送心跳检测问题,让服务瞬间恢复活力!
【8月更文挑战第15天】Nacos是一款广受好评的微服务注册与配置中心。然而,“客户端不发送心跳检测”的问题时有发生,可能导致服务实例被视为离线。本文介绍如何排查此类问题:确认Nacos服务器地址配置正确;检查网络连通性;查看客户端日志;确保Nacos SDK版本兼容;调整心跳检测策略;验证服务实例注册状态;必要时重启应用;检查影响行为的环境变量。通过这些步骤,通常可定位并解决问题,保障服务稳定运行。
239 0
|
3月前
|
网络安全 Nacos 开发者
【Nacos】神操作!节点提示暂时不可用?别急!7步排查法+实战代码,手把手教你解决Nacos服务实例状态异常,让服务瞬间满血复活!
【8月更文挑战第15天】Nacos作为微服务注册与配置中心,虽广受好评,但仍可能遇到“节点提示暂时不可用”的问题。本文解析此现象及其解决之道。首先需理解该提示意味着服务实例未能正常响应。解决步骤包括:检查服务状态与网络、审查Nacos配置、调整健康检查策略、重启服务及分析日志。通过系统化排查,可有效保障服务稳定运行。
91 0
|
18天前
|
负载均衡 应用服务中间件 Nacos
Nacos配置中心
Nacos配置中心
50 1
Nacos配置中心
|
14天前
|
监控 Java 测试技术
Nacos 配置中心变更利器:自定义标签灰度
本文是对 MSE Nacos 应用自定义标签灰度的功能介绍,欢迎大家升级版本进行试用。
|
18天前
|
网络安全 Nacos 开发者
Nacos作为流行的微服务注册与配置中心,“节点提示暂时不可用”是常见的问题之一
Nacos作为流行的微服务注册与配置中心,其稳定性和易用性备受青睐。然而,“节点提示暂时不可用”是常见的问题之一。本文将探讨该问题的原因及解决方案,帮助开发者快速定位并解决问题,确保服务的正常运行。通过检查服务实例状态、网络连接、Nacos配置、调整健康检查策略等步骤,可以有效解决这一问题。
31 4
下一篇
无影云桌面