编排系统K8S Ingress-nginx源码解析

简介: 上篇文章介绍了Ingress-nginx的基本架构原理,具体可参考: 编排系统K8S Ingress-nginx介绍 本篇重点以源码为基础,深入讲解 Ingress-nginx的内部工作流以及整体工作模式。


      上篇文章介绍了Ingress-nginx的基本架构原理,具体可参考:

      编排系统K8S Ingress-nginx介绍

     本篇重点以源码为基础,深入讲解 Ingress-nginx的内部工作流以及整体工作模式。先来张工作流图:


      如上述工作流图所述:Ingress-nginx 模块在运行时主要包括三个主体:NginxController、Store、SyncQueue。其中:

      Store(协程)模块主要负责从 kubernetes API Server 收集运行时信息,感知各类资源(如 Ingress、Service等)的变化,并及时将更新事件消息(event)写入一个环形管道。                                                          SyncQueue(协程)定期扫描 syncQueue 队列,发现有任务就执行更新操作,即借助 Store 完成最新运行数据的拉取,然后根据一定的规则产生新的 nginx 配置,(有些更新必须 reload,就本地写入新配置,执行 reload),然后执行动态更新操作,即构造 POST 数据,向本地 Nginx Lua 服务模块发送 post 请求,以实现配置更新。

      NginxController(主程)作为中间的联系者,监听 updateChannel,一旦收到配置更新事件,就向同步队列 syncQueue 里写入一个更新请求。

     下面我们看下相关源码解析:[因篇幅有限,仅列出核心的部分]

整个流程入口为main()函数,以下为~/nginx/main.go源码


func main() {
  ...
  ngx := controller.NewNGINXController(conf, mc, fs)
  ...
  ngx.Start()
}

在 main 函数中,程序首先构造了 NginxController,并执行了其 Start 方法,启动了 Controller 主程序。

     关于ngx.Start(),我们可以追溯到internal/ingress/controller/nginx.go#Start(),具体:


func (n *NGINXController) Start() {
  ...
  n.store.Run(n.stopCh)
  ...
  go n.syncQueue.Run(time.Second, n.stopCh)
  ...
  for {
    select {
    ...
    case event := <-n.updateCh.Out():
      if n.isShuttingDown {
        break
      }
      if evt, ok := event.(store.Event); ok {
        if evt.Type == store.ConfigurationEvent {
          n.syncQueue.EnqueueTask(task.GetDummyObject("configmap-change"))
          continue
        }
        n.syncQueue.EnqueueSkippableTask(evt.Obj)
      } 
    ...
  }
}

     NginxController 首先启动了 Store 协程,然后启动了 syncQueue 协程,最后监听 updateCh,当收到事件后,经过相关条件判断然后向 syncQueue 写入了一个 task。

      关于Store 协程,跟踪到 internal/ingress/controller/store/store.go#Run(),具体:


func (s k8sStore) Run(stopCh chan struct{}) {
  s.informers.Run(stopCh)
  ...
}

通过代码我们可以看到,此方法继续调用了 informer 的 Run 方法,继续跟踪,可看到如下:


// Run initiates the synchronization of the informers against the API server.
func (i *Informer) Run(stopCh chan struct{}) {
  go i.Endpoint.Run(stopCh)
  go i.Service.Run(stopCh)
  go i.Secret.Run(stopCh)
  go i.ConfigMap.Run(stopCh)
  ...
  go i.Ingress.Run(stopCh)
  ...
}

   informer 的 Run 方法,会起更多的协程,去监听不同资源的变化,包括 Endpoint、Service、Secret、ConfigMap、Ingress等等。以 Ingress 为例,在其定义处,可以找到 New() :


// New creates a new object store to be used in the ingress controller
func New(... updateCh *channels.RingChannel ...) Storer {
  ...
  store.informers.Ingress = infFactory.Extensions().V1beta1().Ingresses().Informer()
  ...
  ingEventHandler := cache.ResourceEventHandlerFuncs{
    AddFunc: func(obj interface{}) {
      ...
      updateCh.In() <- Event{
        Type: CreateEvent,
        Obj:  obj,
      }
    },
    DeleteFunc: func(obj interface{}) {
      ...
      updateCh.In() <- Event{
        Type: DeleteEvent,
        Obj:  obj,
      }
    },
    UpdateFunc: func(old, cur interface{}) {
      ...
      updateCh.In() <- Event{
        Type: UpdateEvent,
        Obj:  cur,
      }
    },
  }
...
  store.informers.Ingress.AddEventHandler(ingEventHandler)
  ...
}

      可以看出,Ingress 协程定义了监听 ingress 信息的 informer 对象,并注册了相关事件的回调方法,在回调方法内向之前提到的 updateCh 写入了事件,进而也就达到了当资源变化时通知 Controller 主程向同步队列写入task的目的。

    关于syncQueue,可追溯到internal/ingress/controller/nginx.go # NewNGINX-Controller()


// NewNGINXController creates a new NGINX Ingress controller.
func NewNGINXController(config *Configuration, mc metric.Collector, fs file.Filesystem) *NGINXController {
  ...
  n.syncQueue = task.NewTaskQueue(n.syncIngress)
  ...
}



       队列的创建是通过 task.NewTaskQueue() 完成的,而且传入了关键的处理函数 n.syncIngress。继续跟踪到 internal/task/queue.go#NewTaskQueue():


// NewTaskQueue creates a new task queue with the given sync function.
// The sync function is called for every element inserted into the queue.
func NewTaskQueue(syncFn func(interface{}) error) *Queue {
  return NewCustomTaskQueue(syncFn, nil)
}
// NewCustomTaskQueue ...
func NewCustomTaskQueue(syncFn func(interface{}) error, fn func(interface{}) (interface{}, error)) *Queue {
  q := &Queue{
    queue:      workqueue.NewRateLimitingQueue(workqueue.DefaultControllerRateLimiter()),
    sync:       syncFn,
    workerDone: make(chan bool),
    fn:         fn,
  }
  ...
  return q
}

       可以看出,传入的处理函数 n.syncIngress 被赋值给 Queue 的 sync 属性了。实际上,syncQueue 的执行就是在反复执行该方法以消费队列里的元素。有关Queue 的 Run 定义可以追溯至:


// Run starts processing elements in the queue
func (t *Queue) Run(period time.Duration, stopCh <-chan struct{}) {
  wait.Until(t.worker, period, stopCh)
}
// worker processes work in the queue through sync.
func (t *Queue) worker() {
  for {
    key, quit := t.queue.Get()
    ...
    if err := t.sync(key); err != nil {
      t.queue.AddRateLimited(Element{
        Key:       item.Key,
        Timestamp: time.Now().UnixNano(),
      })
    } else {
      t.queue.Forget(key)
      t.lastSync = ts
    }
    t.queue.Done(key)
  }
}


      同步队列协程的主要工作就是定期取出队列里的元素,并利用传入的 n.syncIngress (即 t.sync(key))方法处理队列里的元素。n.syncIngress 方法的定义在 internal/-ingress-/controller/controller.go#syncIngress():


// syncIngress collects all the pieces required to assemble the NGINX
// configuration file and passes the resulting data structures to the backend
// (OnUpdate) when a reload is deemed necessary.
func (n *NGINXController) syncIngress(interface{}) error {
  // 获取最新配置信息
  ....
  // 构造 nginx 配置
  pcfg := &ingress.Configuration{
    Backends:              upstreams,
    Servers:               servers,
    PassthroughBackends:   passUpstreams,
    BackendConfigChecksum: n.store.GetBackendConfiguration().Checksum,
  }
  ...
  // 不能避免 reload,就执行 reload 更新配置
  if !n.IsDynamicConfigurationEnough(pcfg) {
    ...
    err := n.OnUpdate(*pcfg)
    ...
  }
  ...
  // 动态更新配置
  err := wait.ExponentialBackoff(retry, func() (bool, error) {
    err := configureDynamically(pcfg, n.cfg.ListenPorts.Status, n.cfg.DynamicCertificatesEnabled)
    ...
  })
  ...
}

      关于动态更新的工作机制,函数定义位于 internal/ingress/controller/nginx.go#-configureDynamically():


/ configureDynamically encodes new Backends in JSON format and POSTs the
// payload to an internal HTTP endpoint handled by Lua.
func configureDynamically(pcfg *ingress.Configuration, port int, isDynamicCertificatesEnabled bool) error {
  backends := make([]*ingress.Backend, len(pcfg.Backends))
  for i, backend := range pcfg.Backends {
    var service *apiv1.Service
    if backend.Service != nil {
      service = &apiv1.Service{Spec: backend.Service.Spec}
    }
    luaBackend := &ingress.Backend{
      Name:                 backend.Name,
      Port:                 backend.Port,
      SSLPassthrough:       backend.SSLPassthrough,
      SessionAffinity:      backend.SessionAffinity,
      UpstreamHashBy:       backend.UpstreamHashBy,
      LoadBalancing:        backend.LoadBalancing,
      Service:              service,
      NoServer:             backend.NoServer,
      TrafficShapingPolicy: backend.TrafficShapingPolicy,
      AlternativeBackends:  backend.AlternativeBackends,
    }
    var endpoints []ingress.Endpoint
    for _, endpoint := range backend.Endpoints {
          endpoints = append(endpoints, ingress.Endpoint{
        Address: endpoint.Address,
        Port:    endpoint.Port,
      })
    }
    luaBackend.Endpoints = endpoints
    backends[i] = luaBackend
  }
  url := fmt.Sprintf("http://localhost:%d/configuration/backends", port)
  err := post(url, backends)
  if err != nil {
    return err
  }
  if isDynamicCertificatesEnabled {
    err = configureCertificates(pcfg, port)
    if err != nil {
      return err
    }
  }
  return nil
}

      结合源码:通过请求 Lua 后端来实现动态配置更新的,使用的是典型的 http post 方法。后续的动态更新动作转交给 Lua 模块负责。因为 Lua 以模块形式嵌入 Nginx 运行,因此其更新配置也就在一定程度上避免了 reload。      

      至于reload 配置的函数定义,可参考

internal/ingress/controller/nginx.go#OnUpdate-()。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
8月前
|
机器学习/深度学习 文字识别 监控
安全监控系统:技术架构与应用解析
该系统采用模块化设计,集成了行为识别、视频监控、人脸识别、危险区域检测、异常事件检测、日志追溯及消息推送等功能,并可选配OCR识别模块。基于深度学习与开源技术栈(如TensorFlow、OpenCV),系统具备高精度、低延迟特点,支持实时分析儿童行为、监测危险区域、识别异常事件,并将结果推送给教师或家长。同时兼容主流硬件,支持本地化推理与分布式处理,确保可靠性与扩展性,为幼儿园安全管理提供全面解决方案。
420 3
|
6月前
|
网络协议 安全 区块链
DNS+:互联网的下一个十年,为什么域名系统正在重新定义数字生态? ——解读《“DNS+”发展白皮书(2023)》
DNS+标志着域名系统从基础寻址工具向融合技术、业态与治理的数字生态中枢转变。通过与IPv6、AI和区块链结合,DNS实现了智能调度、加密传输等新功能,支持工业互联网、Web3及万物互联场景。当前,中国IPv6用户达7.6亿,全球DNSSEC支持率三年增长80%,展现了其快速发展态势。然而,DNS+仍面临安全威胁、技术普惠瓶颈及生态协同挑战。未来,需推动零信任DNS模型、加强威胁情报共享,并加速标准制定,以筑牢数字时代网络根基,实现更安全、高效的数字生态建设。
479 3
|
9月前
|
传感器 人工智能 监控
反向寻车系统怎么做?基本原理与系统组成解析
本文通过反向寻车系统的核心组成部分与技术分析,阐述反向寻车系统的工作原理,适用于适用于商场停车场、医院停车场及火车站停车场等。如需获取智慧停车场反向寻车技术方案前往文章最下方获取,如有项目合作及技术交流欢迎私信作者。
713 2
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术如何重塑客服系统?解析合力亿捷AI智能客服系统实践案例
本文探讨了人工智能技术在客服系统中的应用,涵盖技术架构、关键技术和优化策略。通过感知层、认知层、决策层和执行层的协同工作,结合自然语言处理、知识库构建和多模态交互技术,合力亿捷客服系统实现了智能化服务。文章还提出了用户体验优化、服务质量提升和系统性能改进的方法,并展望了未来发展方向,强调其在客户服务领域的核心价值与潜力。
549 6
|
9月前
|
前端开发 数据安全/隐私保护 CDN
二次元聚合短视频解析去水印系统源码
二次元聚合短视频解析去水印系统源码
384 4
|
2月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
291 1
|
2月前
|
弹性计算 监控 调度
ACK One 注册集群云端节点池升级:IDC 集群一键接入云端 GPU 算力,接入效率提升 80%
ACK One注册集群节点池实现“一键接入”,免去手动编写脚本与GPU驱动安装,支持自动扩缩容与多场景调度,大幅提升K8s集群管理效率。
259 89
|
7月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
294 9
|
7月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
9月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
883 33

推荐镜像

更多
  • DNS