编排系统K8S Ingress-nginx源码解析

简介: 上篇文章介绍了Ingress-nginx的基本架构原理,具体可参考: 编排系统K8S Ingress-nginx介绍 本篇重点以源码为基础,深入讲解 Ingress-nginx的内部工作流以及整体工作模式。


      上篇文章介绍了Ingress-nginx的基本架构原理,具体可参考:

      编排系统K8S Ingress-nginx介绍

     本篇重点以源码为基础,深入讲解 Ingress-nginx的内部工作流以及整体工作模式。先来张工作流图:


      如上述工作流图所述:Ingress-nginx 模块在运行时主要包括三个主体:NginxController、Store、SyncQueue。其中:

      Store(协程)模块主要负责从 kubernetes API Server 收集运行时信息,感知各类资源(如 Ingress、Service等)的变化,并及时将更新事件消息(event)写入一个环形管道。                                                          SyncQueue(协程)定期扫描 syncQueue 队列,发现有任务就执行更新操作,即借助 Store 完成最新运行数据的拉取,然后根据一定的规则产生新的 nginx 配置,(有些更新必须 reload,就本地写入新配置,执行 reload),然后执行动态更新操作,即构造 POST 数据,向本地 Nginx Lua 服务模块发送 post 请求,以实现配置更新。

      NginxController(主程)作为中间的联系者,监听 updateChannel,一旦收到配置更新事件,就向同步队列 syncQueue 里写入一个更新请求。

     下面我们看下相关源码解析:[因篇幅有限,仅列出核心的部分]

整个流程入口为main()函数,以下为~/nginx/main.go源码


func main() {
  ...
  ngx := controller.NewNGINXController(conf, mc, fs)
  ...
  ngx.Start()
}

在 main 函数中,程序首先构造了 NginxController,并执行了其 Start 方法,启动了 Controller 主程序。

     关于ngx.Start(),我们可以追溯到internal/ingress/controller/nginx.go#Start(),具体:


func (n *NGINXController) Start() {
  ...
  n.store.Run(n.stopCh)
  ...
  go n.syncQueue.Run(time.Second, n.stopCh)
  ...
  for {
    select {
    ...
    case event := <-n.updateCh.Out():
      if n.isShuttingDown {
        break
      }
      if evt, ok := event.(store.Event); ok {
        if evt.Type == store.ConfigurationEvent {
          n.syncQueue.EnqueueTask(task.GetDummyObject("configmap-change"))
          continue
        }
        n.syncQueue.EnqueueSkippableTask(evt.Obj)
      } 
    ...
  }
}

     NginxController 首先启动了 Store 协程,然后启动了 syncQueue 协程,最后监听 updateCh,当收到事件后,经过相关条件判断然后向 syncQueue 写入了一个 task。

      关于Store 协程,跟踪到 internal/ingress/controller/store/store.go#Run(),具体:


func (s k8sStore) Run(stopCh chan struct{}) {
  s.informers.Run(stopCh)
  ...
}

通过代码我们可以看到,此方法继续调用了 informer 的 Run 方法,继续跟踪,可看到如下:


// Run initiates the synchronization of the informers against the API server.
func (i *Informer) Run(stopCh chan struct{}) {
  go i.Endpoint.Run(stopCh)
  go i.Service.Run(stopCh)
  go i.Secret.Run(stopCh)
  go i.ConfigMap.Run(stopCh)
  ...
  go i.Ingress.Run(stopCh)
  ...
}

   informer 的 Run 方法,会起更多的协程,去监听不同资源的变化,包括 Endpoint、Service、Secret、ConfigMap、Ingress等等。以 Ingress 为例,在其定义处,可以找到 New() :


// New creates a new object store to be used in the ingress controller
func New(... updateCh *channels.RingChannel ...) Storer {
  ...
  store.informers.Ingress = infFactory.Extensions().V1beta1().Ingresses().Informer()
  ...
  ingEventHandler := cache.ResourceEventHandlerFuncs{
    AddFunc: func(obj interface{}) {
      ...
      updateCh.In() <- Event{
        Type: CreateEvent,
        Obj:  obj,
      }
    },
    DeleteFunc: func(obj interface{}) {
      ...
      updateCh.In() <- Event{
        Type: DeleteEvent,
        Obj:  obj,
      }
    },
    UpdateFunc: func(old, cur interface{}) {
      ...
      updateCh.In() <- Event{
        Type: UpdateEvent,
        Obj:  cur,
      }
    },
  }
...
  store.informers.Ingress.AddEventHandler(ingEventHandler)
  ...
}

      可以看出,Ingress 协程定义了监听 ingress 信息的 informer 对象,并注册了相关事件的回调方法,在回调方法内向之前提到的 updateCh 写入了事件,进而也就达到了当资源变化时通知 Controller 主程向同步队列写入task的目的。

    关于syncQueue,可追溯到internal/ingress/controller/nginx.go # NewNGINX-Controller()


// NewNGINXController creates a new NGINX Ingress controller.
func NewNGINXController(config *Configuration, mc metric.Collector, fs file.Filesystem) *NGINXController {
  ...
  n.syncQueue = task.NewTaskQueue(n.syncIngress)
  ...
}



       队列的创建是通过 task.NewTaskQueue() 完成的,而且传入了关键的处理函数 n.syncIngress。继续跟踪到 internal/task/queue.go#NewTaskQueue():


// NewTaskQueue creates a new task queue with the given sync function.
// The sync function is called for every element inserted into the queue.
func NewTaskQueue(syncFn func(interface{}) error) *Queue {
  return NewCustomTaskQueue(syncFn, nil)
}
// NewCustomTaskQueue ...
func NewCustomTaskQueue(syncFn func(interface{}) error, fn func(interface{}) (interface{}, error)) *Queue {
  q := &Queue{
    queue:      workqueue.NewRateLimitingQueue(workqueue.DefaultControllerRateLimiter()),
    sync:       syncFn,
    workerDone: make(chan bool),
    fn:         fn,
  }
  ...
  return q
}

       可以看出,传入的处理函数 n.syncIngress 被赋值给 Queue 的 sync 属性了。实际上,syncQueue 的执行就是在反复执行该方法以消费队列里的元素。有关Queue 的 Run 定义可以追溯至:


// Run starts processing elements in the queue
func (t *Queue) Run(period time.Duration, stopCh <-chan struct{}) {
  wait.Until(t.worker, period, stopCh)
}
// worker processes work in the queue through sync.
func (t *Queue) worker() {
  for {
    key, quit := t.queue.Get()
    ...
    if err := t.sync(key); err != nil {
      t.queue.AddRateLimited(Element{
        Key:       item.Key,
        Timestamp: time.Now().UnixNano(),
      })
    } else {
      t.queue.Forget(key)
      t.lastSync = ts
    }
    t.queue.Done(key)
  }
}


      同步队列协程的主要工作就是定期取出队列里的元素,并利用传入的 n.syncIngress (即 t.sync(key))方法处理队列里的元素。n.syncIngress 方法的定义在 internal/-ingress-/controller/controller.go#syncIngress():


// syncIngress collects all the pieces required to assemble the NGINX
// configuration file and passes the resulting data structures to the backend
// (OnUpdate) when a reload is deemed necessary.
func (n *NGINXController) syncIngress(interface{}) error {
  // 获取最新配置信息
  ....
  // 构造 nginx 配置
  pcfg := &ingress.Configuration{
    Backends:              upstreams,
    Servers:               servers,
    PassthroughBackends:   passUpstreams,
    BackendConfigChecksum: n.store.GetBackendConfiguration().Checksum,
  }
  ...
  // 不能避免 reload,就执行 reload 更新配置
  if !n.IsDynamicConfigurationEnough(pcfg) {
    ...
    err := n.OnUpdate(*pcfg)
    ...
  }
  ...
  // 动态更新配置
  err := wait.ExponentialBackoff(retry, func() (bool, error) {
    err := configureDynamically(pcfg, n.cfg.ListenPorts.Status, n.cfg.DynamicCertificatesEnabled)
    ...
  })
  ...
}

      关于动态更新的工作机制,函数定义位于 internal/ingress/controller/nginx.go#-configureDynamically():


/ configureDynamically encodes new Backends in JSON format and POSTs the
// payload to an internal HTTP endpoint handled by Lua.
func configureDynamically(pcfg *ingress.Configuration, port int, isDynamicCertificatesEnabled bool) error {
  backends := make([]*ingress.Backend, len(pcfg.Backends))
  for i, backend := range pcfg.Backends {
    var service *apiv1.Service
    if backend.Service != nil {
      service = &apiv1.Service{Spec: backend.Service.Spec}
    }
    luaBackend := &ingress.Backend{
      Name:                 backend.Name,
      Port:                 backend.Port,
      SSLPassthrough:       backend.SSLPassthrough,
      SessionAffinity:      backend.SessionAffinity,
      UpstreamHashBy:       backend.UpstreamHashBy,
      LoadBalancing:        backend.LoadBalancing,
      Service:              service,
      NoServer:             backend.NoServer,
      TrafficShapingPolicy: backend.TrafficShapingPolicy,
      AlternativeBackends:  backend.AlternativeBackends,
    }
    var endpoints []ingress.Endpoint
    for _, endpoint := range backend.Endpoints {
          endpoints = append(endpoints, ingress.Endpoint{
        Address: endpoint.Address,
        Port:    endpoint.Port,
      })
    }
    luaBackend.Endpoints = endpoints
    backends[i] = luaBackend
  }
  url := fmt.Sprintf("http://localhost:%d/configuration/backends", port)
  err := post(url, backends)
  if err != nil {
    return err
  }
  if isDynamicCertificatesEnabled {
    err = configureCertificates(pcfg, port)
    if err != nil {
      return err
    }
  }
  return nil
}

      结合源码:通过请求 Lua 后端来实现动态配置更新的,使用的是典型的 http post 方法。后续的动态更新动作转交给 Lua 模块负责。因为 Lua 以模块形式嵌入 Nginx 运行,因此其更新配置也就在一定程度上避免了 reload。      

      至于reload 配置的函数定义,可参考

internal/ingress/controller/nginx.go#OnUpdate-()。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
7月前
|
机器学习/深度学习 文字识别 监控
安全监控系统:技术架构与应用解析
该系统采用模块化设计,集成了行为识别、视频监控、人脸识别、危险区域检测、异常事件检测、日志追溯及消息推送等功能,并可选配OCR识别模块。基于深度学习与开源技术栈(如TensorFlow、OpenCV),系统具备高精度、低延迟特点,支持实时分析儿童行为、监测危险区域、识别异常事件,并将结果推送给教师或家长。同时兼容主流硬件,支持本地化推理与分布式处理,确保可靠性与扩展性,为幼儿园安全管理提供全面解决方案。
359 3
|
5月前
|
网络协议 安全 区块链
DNS+:互联网的下一个十年,为什么域名系统正在重新定义数字生态? ——解读《“DNS+”发展白皮书(2023)》
DNS+标志着域名系统从基础寻址工具向融合技术、业态与治理的数字生态中枢转变。通过与IPv6、AI和区块链结合,DNS实现了智能调度、加密传输等新功能,支持工业互联网、Web3及万物互联场景。当前,中国IPv6用户达7.6亿,全球DNSSEC支持率三年增长80%,展现了其快速发展态势。然而,DNS+仍面临安全威胁、技术普惠瓶颈及生态协同挑战。未来,需推动零信任DNS模型、加强威胁情报共享,并加速标准制定,以筑牢数字时代网络根基,实现更安全、高效的数字生态建设。
425 3
|
8月前
|
传感器 人工智能 监控
反向寻车系统怎么做?基本原理与系统组成解析
本文通过反向寻车系统的核心组成部分与技术分析,阐述反向寻车系统的工作原理,适用于适用于商场停车场、医院停车场及火车站停车场等。如需获取智慧停车场反向寻车技术方案前往文章最下方获取,如有项目合作及技术交流欢迎私信作者。
615 2
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术如何重塑客服系统?解析合力亿捷AI智能客服系统实践案例
本文探讨了人工智能技术在客服系统中的应用,涵盖技术架构、关键技术和优化策略。通过感知层、认知层、决策层和执行层的协同工作,结合自然语言处理、知识库构建和多模态交互技术,合力亿捷客服系统实现了智能化服务。文章还提出了用户体验优化、服务质量提升和系统性能改进的方法,并展望了未来发展方向,强调其在客户服务领域的核心价值与潜力。
498 6
|
8月前
|
前端开发 数据安全/隐私保护 CDN
二次元聚合短视频解析去水印系统源码
二次元聚合短视频解析去水印系统源码
327 4
|
8月前
|
人工智能 自然语言处理 算法
DeepSeek大模型在客服系统中的应用场景解析
在数字化浪潮下,客户服务领域正经历深刻变革,AI技术成为提升服务效能与体验的关键。DeepSeek大模型凭借自然语言处理、语音交互及多模态技术,显著优化客服流程,提升用户满意度。它通过智能问答、多轮对话引导、多模态语音客服和情绪监测等功能,革新服务模式,实现高效应答与精准分析,推动人机协作,为企业和客户创造更大价值。
742 5
|
8月前
|
人工智能 自然语言处理 算法
DeepSeek 大模型在合力亿捷工单系统中的5大应用场景解析
工单系统是企业客户服务与内部运营的核心工具,传统系统在分类、派发和处理效率方面面临挑战。DeepSeek大模型通过自然语言处理和智能化算法,实现精准分类、智能分配、自动填充、优先级排序及流程优化,大幅提升工单处理效率和质量,降低运营成本,改善客户体验。
464 2
|
8月前
|
存储 前端开发 JavaScript
在线教育网课系统源码开发指南:功能设计与技术实现深度解析
在线教育网课系统是近年来发展迅猛的教育形式的核心载体,具备用户管理、课程管理、教学互动、学习评估等功能。本文从功能和技术两方面解析其源码开发,涵盖前端(HTML5、CSS3、JavaScript等)、后端(Java、Python等)、流媒体及云计算技术,并强调安全性、稳定性和用户体验的重要性。
|
10月前
|
Kubernetes Linux 虚拟化
入门级容器技术解析:Docker和K8s的区别与关系
本文介绍了容器技术的发展历程及其重要组成部分Docker和Kubernetes。从传统物理机到虚拟机,再到容器化,每一步都旨在更高效地利用服务器资源并简化应用部署。容器技术通过隔离环境、减少依赖冲突和提高可移植性,解决了传统部署方式中的诸多问题。Docker作为容器化平台,专注于创建和管理容器;而Kubernetes则是一个强大的容器编排系统,用于自动化部署、扩展和管理容器化应用。两者相辅相成,共同推动了现代云原生应用的快速发展。
2650 11
|
10月前
|
存储 分布式计算 Hadoop
基于Java的Hadoop文件处理系统:高效分布式数据解析与存储
本文介绍了如何借鉴Hadoop的设计思想,使用Java实现其核心功能MapReduce,解决海量数据处理问题。通过类比图书馆管理系统,详细解释了Hadoop的两大组件:HDFS(分布式文件系统)和MapReduce(分布式计算模型)。具体实现了单词统计任务,并扩展支持CSV和JSON格式的数据解析。为了提升性能,引入了Combiner减少中间数据传输,以及自定义Partitioner解决数据倾斜问题。最后总结了Hadoop在大数据处理中的重要性,鼓励Java开发者学习Hadoop以拓展技术边界。
344 7

推荐镜像

更多
下一篇
oss云网关配置