etcd源码分析 - 1.【打通核心流程】etcd server的启动流程

简介: 在第一阶段,我将从主流程出发,讲述一个`PUT`指令是怎么将数据更新到`etcd server`中的。今天,我们先来看看server是怎么启动的。

etcd的源码相对Kubernetes少了很多,但学习成本依旧在。

在第一阶段,我将从主流程出发,讲述一个PUT指令是怎么将数据更新到etcd server中的。今天,我们先来看看server是怎么启动的。

etcd server启动代码

运行etcd server的最简化代码为./bin/etcd,无需添加任何参数。我们就根据这个命令来阅读代码,看看启动的主逻辑是怎么样的。

etcdmain.Main

主入口函数中,只要我们能理解os.Args它的含义,就能快速地跳过中间代码,找到下一层函数的入口startEtcdOrProxyV2()

startEtcdOrProxyV2

本函数较长,就比较考验我们的通读能力。在阅读这一块代码时,我一般会用到三个小技巧:

  1. 忽略err != nil的判断分支,一般它们都是对异常case的处理;
  2. 忽略变量 == 默认值的判断分支,如字符串变量 == "",这种多为对默认值的处理,如做变量初始化等;
  3. 寻找串联上下文的关键性变量,一般都会有明确的命名或注释;

而在这块代码里呢,我们就能找到2个关键性的变量,以及相关的使用处:

// 表示停止动作与错误的两个channel
var stopped <-chan struct{
   
   }
var errc <-chan error

// 两种模式:第一种是正常的etcd server,第二种是代理模式
switch which {
   
   
case dirMember:
    stopped, errc, err = startEtcd(&cfg.ec)
case dirProxy:
    err = startProxy(cfg)

// 阻塞并监听两个通道的地方
select {
   
   
    case lerr := <-errc:
    case <-stopped:
}

通过这部分的代码,我们就能定位到下一层的函数入口 - startEtcd

startEtcd

func startEtcd(cfg *embed.Config) (<-chan struct{
   
   }, <-chan error, error) {
   
   
    e, err := embed.StartEtcd(cfg)
    if err != nil {
   
   
        return nil, nil, err
    }
    osutil.RegisterInterruptHandler(e.Close)
    select {
   
   
    case <-e.Server.ReadyNotify(): // wait for e.Server to join the cluster
    case <-e.Server.StopNotify(): // publish aborted from 'ErrStopped'
    }
    return e.Server.StopNotify(), e.Err(), nil
}

我们可以从三个关键动作,来了解这个函数的功能:

  1. 启动etcd,如果失败则通过error返回;
  2. 启动etcd后,本节点会加入到整个集群中,就绪后则通过channele.Server.ReadyNotify()收到消息;
  3. 启动etcd后,如果遇到异常,则会通过channele.Server.StopNotify()收到消息;

另外,osutil.RegisterInterruptHandler(e.Close)这个函数注册了etcd异常退出的函数,里面涉及到一些汇编,有兴趣可以深入阅读。

embed.StartEtcd

func  StartEtcd(inCfg *Config) (e *Etcd, err error){
   
   }

我们先简单地通读一下注释,可以了解到:本函数返回的Etcd并没有保证加入到集群,而是要等待channel通知。这就印证了上面的猜想。StartEtcd函数很长,我先解释两个关键词:

  1. peer - 英文翻译为同等地位的人,在当前语义下表示其余同等的etcd server节点,共同组成集群;
  2. client - 即客户端,可以理解为发起etcd请求方,如程序;

我们看到一段代码:

// 新建 etcdserver.EtcdServer 对象
if e.Server, err = etcdserver.NewServer(srvcfg); err != nil {
   
   
  return e, err
}

// 启动etcdserver
e.Server.Start()

// 连接peer/client,以及提供metrics指标
if err = e.servePeers(); err != nil {
   
   
  return e, err
}
if err = e.serveClients(); err != nil {
   
   
  return e, err
}
if err = e.serveMetrics(); err != nil {
   
   
  return e, err
}

进入Start方法,可以看到里面都是一些常驻的daemon程序,如监控版本/KV值,与我们关注的PUT操作的核心流程无关。所以,我们的目标就转移到serveClients函数。

serveClients

本函数的重点在于下面这段。这里有个变量叫sctx,就是server context的简写,是在前面embed.StartEtcd里初始化的,主要由context、日志、网络信息组成。

for _, sctx := range e.sctxs {
   
   
  go func(s *serveCtx) {
   
   
    e.errHandler(s.serve(e.Server, &e.cfg.ClientTLSInfo, h, e.errHandler, gopts...))
  }(sctx)
}

重点理解下面这个函数:

func (e *Etcd) errHandler(err error) {
   
   
  // 第一次select,如果收到停止消息,则退出,否则到第二个select
    select {
   
   
    case <-e.stopc:
        return
    default:
    }

  // 第二次select,一般情况下长期阻塞在这里:要么收到停止消息,要么将error从e.errc发送出去
    select {
   
   
    case <-e.stopc:
    case e.errc <- err:
    }
}

(*serveCtx)serve()

serve()函数我们可以快速地通过缩进来阅读:

// 非安全,即HTTP
if sctx.insecure {
   
   
}

// 安全,即HTTPS
if sctx.secure {
   
   
}

而我们关注的HTTP部分,又分为两块 - HTTP2和HTTP1。而每一个server都有一个关键变量:

mux多路复用器 - 在web编程的场景下,往往指多个路由规则的匹配,最常见的如将URL映射到一个处理函数;而创建完mux后,将它注册到server中运行起来。

小结

到这里,我们串联了整个main函数运行的相关代码,也建立了etcd server运行的主要逻辑,我也总结到了下面这张图中。

目录
相关文章
|
12月前
|
IDE Go 开发工具
etcd源码分析 - 5.【打通核心流程】EtcdServer消息的处理函数
在上一讲,我们梳理了`EtcdServer`的关键函数`processInternalRaftRequestOnce`里的四个细节。 其中,`wait.Wait`组件使用里,我们还遗留了一个细节实现,也就是请求的处理结果是怎么通过channel返回的。
106 0
etcd源码分析 - 5.【打通核心流程】EtcdServer消息的处理函数
|
2月前
|
安全 微服务
【Azure微服务 Service Fabric 】因证书过期导致Service Fabric集群挂掉(升级无法完成,节点不可用)
【Azure微服务 Service Fabric 】因证书过期导致Service Fabric集群挂掉(升级无法完成,节点不可用)
|
2月前
|
API 微服务
【Azure 微服务】面对Service Fabric中节点状态不正常(Disabling/Warning/RemoveNode)的几种尝试解决方案
【Azure 微服务】面对Service Fabric中节点状态不正常(Disabling/Warning/RemoveNode)的几种尝试解决方案
|
2月前
|
微服务
【Azure 微服务】Service fabric升级结构版本失败问题
【Azure 微服务】Service fabric升级结构版本失败问题
|
11月前
|
Dubbo 应用服务中间件 API
启动dubbo消费端过程提示No provider available for the service的问题定位与解决
启动dubbo消费端过程提示No provider available for the service的问题定位与解决
179 0
|
12月前
|
数据可视化 Ubuntu Go
etcd源码分析 - 0.搭建学习etcd的环境
如果要更深入地研究etcd,就需要我们涉及到源码、并结合实践进行学习。那么,接下来,我将基于`v3.4`这个版本,做一期深入的环境搭建。
83 0
|
Dubbo Java 应用服务中间件
dubbo 服务开发流程,运行流程?zookeeper 注册中心的作用?
dubbo 服务开发流程,运行流程?zookeeper 注册中心的作用?
86 0
分布式学习十四:etcd实现服务注册/发现
分布式学习十四:etcd实现服务注册/发现
92 0
分布式学习十四:etcd实现服务注册/发现
|
算法 开发工具 Docker
搭建ZooKeeper3.7.0集群(传统方式&Docker方式)
搭建ZooKeeper3.7.0集群(传统方式&Docker方式)
423 0
搭建ZooKeeper3.7.0集群(传统方式&Docker方式)
|
API 数据库 安全
Openstack Nova 源码分析 — RPC 远程调用过程
目录 目录 Nova Project Services Project 的程序入口 setuppy Nova中RPC远程过程调用 nova-compute RPC API的实现 novacomputemanager 模块 最后 Nova Project Services nova-api:捕获novaclient发送过来的HTTP请求,并且将它转换为AMQP消息,通过Queue来与别的services通信。
1880 0
下一篇
无影云桌面