编排系统K8S Ingress-nginx源码解析

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: 上篇文章介绍了Ingress-nginx的基本架构原理,具体可参考: 编排系统K8S Ingress-nginx介绍 本篇重点以源码为基础,深入讲解 Ingress-nginx的内部工作流以及整体工作模式。


      上篇文章介绍了Ingress-nginx的基本架构原理,具体可参考:

      编排系统K8S Ingress-nginx介绍

     本篇重点以源码为基础,深入讲解 Ingress-nginx的内部工作流以及整体工作模式。先来张工作流图:


      如上述工作流图所述:Ingress-nginx 模块在运行时主要包括三个主体:NginxController、Store、SyncQueue。其中:

      Store(协程)模块主要负责从 kubernetes API Server 收集运行时信息,感知各类资源(如 Ingress、Service等)的变化,并及时将更新事件消息(event)写入一个环形管道。                                                          SyncQueue(协程)定期扫描 syncQueue 队列,发现有任务就执行更新操作,即借助 Store 完成最新运行数据的拉取,然后根据一定的规则产生新的 nginx 配置,(有些更新必须 reload,就本地写入新配置,执行 reload),然后执行动态更新操作,即构造 POST 数据,向本地 Nginx Lua 服务模块发送 post 请求,以实现配置更新。

      NginxController(主程)作为中间的联系者,监听 updateChannel,一旦收到配置更新事件,就向同步队列 syncQueue 里写入一个更新请求。

     下面我们看下相关源码解析:[因篇幅有限,仅列出核心的部分]

整个流程入口为main()函数,以下为~/nginx/main.go源码


func main() {
  ...
  ngx := controller.NewNGINXController(conf, mc, fs)
  ...
  ngx.Start()
}

在 main 函数中,程序首先构造了 NginxController,并执行了其 Start 方法,启动了 Controller 主程序。

     关于ngx.Start(),我们可以追溯到internal/ingress/controller/nginx.go#Start(),具体:


func (n *NGINXController) Start() {
  ...
  n.store.Run(n.stopCh)
  ...
  go n.syncQueue.Run(time.Second, n.stopCh)
  ...
  for {
    select {
    ...
    case event := <-n.updateCh.Out():
      if n.isShuttingDown {
        break
      }
      if evt, ok := event.(store.Event); ok {
        if evt.Type == store.ConfigurationEvent {
          n.syncQueue.EnqueueTask(task.GetDummyObject("configmap-change"))
          continue
        }
        n.syncQueue.EnqueueSkippableTask(evt.Obj)
      } 
    ...
  }
}

     NginxController 首先启动了 Store 协程,然后启动了 syncQueue 协程,最后监听 updateCh,当收到事件后,经过相关条件判断然后向 syncQueue 写入了一个 task。

      关于Store 协程,跟踪到 internal/ingress/controller/store/store.go#Run(),具体:


func (s k8sStore) Run(stopCh chan struct{}) {
  s.informers.Run(stopCh)
  ...
}

通过代码我们可以看到,此方法继续调用了 informer 的 Run 方法,继续跟踪,可看到如下:


// Run initiates the synchronization of the informers against the API server.
func (i *Informer) Run(stopCh chan struct{}) {
  go i.Endpoint.Run(stopCh)
  go i.Service.Run(stopCh)
  go i.Secret.Run(stopCh)
  go i.ConfigMap.Run(stopCh)
  ...
  go i.Ingress.Run(stopCh)
  ...
}

   informer 的 Run 方法,会起更多的协程,去监听不同资源的变化,包括 Endpoint、Service、Secret、ConfigMap、Ingress等等。以 Ingress 为例,在其定义处,可以找到 New() :


// New creates a new object store to be used in the ingress controller
func New(... updateCh *channels.RingChannel ...) Storer {
  ...
  store.informers.Ingress = infFactory.Extensions().V1beta1().Ingresses().Informer()
  ...
  ingEventHandler := cache.ResourceEventHandlerFuncs{
    AddFunc: func(obj interface{}) {
      ...
      updateCh.In() <- Event{
        Type: CreateEvent,
        Obj:  obj,
      }
    },
    DeleteFunc: func(obj interface{}) {
      ...
      updateCh.In() <- Event{
        Type: DeleteEvent,
        Obj:  obj,
      }
    },
    UpdateFunc: func(old, cur interface{}) {
      ...
      updateCh.In() <- Event{
        Type: UpdateEvent,
        Obj:  cur,
      }
    },
  }
...
  store.informers.Ingress.AddEventHandler(ingEventHandler)
  ...
}

      可以看出,Ingress 协程定义了监听 ingress 信息的 informer 对象,并注册了相关事件的回调方法,在回调方法内向之前提到的 updateCh 写入了事件,进而也就达到了当资源变化时通知 Controller 主程向同步队列写入task的目的。

    关于syncQueue,可追溯到internal/ingress/controller/nginx.go # NewNGINX-Controller()


// NewNGINXController creates a new NGINX Ingress controller.
func NewNGINXController(config *Configuration, mc metric.Collector, fs file.Filesystem) *NGINXController {
  ...
  n.syncQueue = task.NewTaskQueue(n.syncIngress)
  ...
}



       队列的创建是通过 task.NewTaskQueue() 完成的,而且传入了关键的处理函数 n.syncIngress。继续跟踪到 internal/task/queue.go#NewTaskQueue():


// NewTaskQueue creates a new task queue with the given sync function.
// The sync function is called for every element inserted into the queue.
func NewTaskQueue(syncFn func(interface{}) error) *Queue {
  return NewCustomTaskQueue(syncFn, nil)
}
// NewCustomTaskQueue ...
func NewCustomTaskQueue(syncFn func(interface{}) error, fn func(interface{}) (interface{}, error)) *Queue {
  q := &Queue{
    queue:      workqueue.NewRateLimitingQueue(workqueue.DefaultControllerRateLimiter()),
    sync:       syncFn,
    workerDone: make(chan bool),
    fn:         fn,
  }
  ...
  return q
}

       可以看出,传入的处理函数 n.syncIngress 被赋值给 Queue 的 sync 属性了。实际上,syncQueue 的执行就是在反复执行该方法以消费队列里的元素。有关Queue 的 Run 定义可以追溯至:


// Run starts processing elements in the queue
func (t *Queue) Run(period time.Duration, stopCh <-chan struct{}) {
  wait.Until(t.worker, period, stopCh)
}
// worker processes work in the queue through sync.
func (t *Queue) worker() {
  for {
    key, quit := t.queue.Get()
    ...
    if err := t.sync(key); err != nil {
      t.queue.AddRateLimited(Element{
        Key:       item.Key,
        Timestamp: time.Now().UnixNano(),
      })
    } else {
      t.queue.Forget(key)
      t.lastSync = ts
    }
    t.queue.Done(key)
  }
}


      同步队列协程的主要工作就是定期取出队列里的元素,并利用传入的 n.syncIngress (即 t.sync(key))方法处理队列里的元素。n.syncIngress 方法的定义在 internal/-ingress-/controller/controller.go#syncIngress():


// syncIngress collects all the pieces required to assemble the NGINX
// configuration file and passes the resulting data structures to the backend
// (OnUpdate) when a reload is deemed necessary.
func (n *NGINXController) syncIngress(interface{}) error {
  // 获取最新配置信息
  ....
  // 构造 nginx 配置
  pcfg := &ingress.Configuration{
    Backends:              upstreams,
    Servers:               servers,
    PassthroughBackends:   passUpstreams,
    BackendConfigChecksum: n.store.GetBackendConfiguration().Checksum,
  }
  ...
  // 不能避免 reload,就执行 reload 更新配置
  if !n.IsDynamicConfigurationEnough(pcfg) {
    ...
    err := n.OnUpdate(*pcfg)
    ...
  }
  ...
  // 动态更新配置
  err := wait.ExponentialBackoff(retry, func() (bool, error) {
    err := configureDynamically(pcfg, n.cfg.ListenPorts.Status, n.cfg.DynamicCertificatesEnabled)
    ...
  })
  ...
}

      关于动态更新的工作机制,函数定义位于 internal/ingress/controller/nginx.go#-configureDynamically():


/ configureDynamically encodes new Backends in JSON format and POSTs the
// payload to an internal HTTP endpoint handled by Lua.
func configureDynamically(pcfg *ingress.Configuration, port int, isDynamicCertificatesEnabled bool) error {
  backends := make([]*ingress.Backend, len(pcfg.Backends))
  for i, backend := range pcfg.Backends {
    var service *apiv1.Service
    if backend.Service != nil {
      service = &apiv1.Service{Spec: backend.Service.Spec}
    }
    luaBackend := &ingress.Backend{
      Name:                 backend.Name,
      Port:                 backend.Port,
      SSLPassthrough:       backend.SSLPassthrough,
      SessionAffinity:      backend.SessionAffinity,
      UpstreamHashBy:       backend.UpstreamHashBy,
      LoadBalancing:        backend.LoadBalancing,
      Service:              service,
      NoServer:             backend.NoServer,
      TrafficShapingPolicy: backend.TrafficShapingPolicy,
      AlternativeBackends:  backend.AlternativeBackends,
    }
    var endpoints []ingress.Endpoint
    for _, endpoint := range backend.Endpoints {
          endpoints = append(endpoints, ingress.Endpoint{
        Address: endpoint.Address,
        Port:    endpoint.Port,
      })
    }
    luaBackend.Endpoints = endpoints
    backends[i] = luaBackend
  }
  url := fmt.Sprintf("http://localhost:%d/configuration/backends", port)
  err := post(url, backends)
  if err != nil {
    return err
  }
  if isDynamicCertificatesEnabled {
    err = configureCertificates(pcfg, port)
    if err != nil {
      return err
    }
  }
  return nil
}

      结合源码:通过请求 Lua 后端来实现动态配置更新的,使用的是典型的 http post 方法。后续的动态更新动作转交给 Lua 模块负责。因为 Lua 以模块形式嵌入 Nginx 运行,因此其更新配置也就在一定程度上避免了 reload。      

      至于reload 配置的函数定义,可参考

internal/ingress/controller/nginx.go#OnUpdate-()。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
2月前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
92 2
|
15天前
|
存储 设计模式 算法
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
行为型模式用于描述程序在运行时复杂的流程控制,即描述多个类或对象之间怎样相互协作共同完成单个对象都无法单独完成的任务,它涉及算法与对象间职责的分配。行为型模式分为类行为模式和对象行为模式,前者采用继承机制来在类间分派行为,后者采用组合或聚合在对象间分配行为。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象行为模式比类行为模式具有更大的灵活性。 行为型模式分为: • 模板方法模式 • 策略模式 • 命令模式 • 职责链模式 • 状态模式 • 观察者模式 • 中介者模式 • 迭代器模式 • 访问者模式 • 备忘录模式 • 解释器模式
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
|
15天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
结构型模式描述如何将类或对象按某种布局组成更大的结构。它分为类结构型模式和对象结构型模式,前者采用继承机制来组织接口和类,后者釆用组合或聚合来组合对象。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象结构型模式比类结构型模式具有更大的灵活性。 结构型模式分为以下 7 种: • 代理模式 • 适配器模式 • 装饰者模式 • 桥接模式 • 外观模式 • 组合模式 • 享元模式
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
15天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
创建型模式的主要关注点是“怎样创建对象?”,它的主要特点是"将对象的创建与使用分离”。这样可以降低系统的耦合度,使用者不需要关注对象的创建细节。创建型模式分为5种:单例模式、工厂方法模式抽象工厂式、原型模式、建造者模式。
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
2月前
|
缓存 监控 Java
Java线程池提交任务流程底层源码与源码解析
【11月更文挑战第30天】嘿,各位技术爱好者们,今天咱们来聊聊Java线程池提交任务的底层源码与源码解析。作为一个资深的Java开发者,我相信你一定对线程池并不陌生。线程池作为并发编程中的一大利器,其重要性不言而喻。今天,我将以对话的方式,带你一步步深入线程池的奥秘,从概述到功能点,再到背景和业务点,最后到底层原理和示例,让你对线程池有一个全新的认识。
58 12
|
1月前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
16天前
|
安全 搜索推荐 数据挖掘
陪玩系统源码开发流程解析,成品陪玩系统源码的优点
我们自主开发的多客陪玩系统源码,整合了市面上主流陪玩APP功能,支持二次开发。该系统适用于线上游戏陪玩、语音视频聊天、心理咨询等场景,提供用户注册管理、陪玩者资料库、预约匹配、实时通讯、支付结算、安全隐私保护、客户服务及数据分析等功能,打造综合性社交平台。随着互联网技术发展,陪玩系统正成为游戏爱好者的新宠,改变游戏体验并带来新的商业模式。
|
14天前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
11天前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
51 12
|
16天前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
30 2

推荐镜像

更多