阿里云网络发布云原生网关 alibaba-load-balancer-controller v1.2.0,持续拥抱开源生态

简介: alibaba-load-balancer-controller开源版本正式推出v1.2.0,能力对齐ALB Ingress Controller商业版v2.10.0。

【阅读原文】戳:阿里云网络发布云原生网关 alibaba-load-balancer-controller v1.2.0,持续拥抱开源生态


引言:ALB Ingress作为阿里云官方推荐的云原生Ingress网关解决方案,已在包括阿里云容器服务ACK和ACK Serverless在内的多个Kubernetes部署场景中广泛应用。

 

为更好地服务于在阿里云上自建Kubernetes集群的用户,帮助用户更方便快捷地利用ALB产品的优势,阿里云网络基于ALB Ingress Controller商业版特性,推出了开源版本的alibaba-load-balancer-controller。自alibaba-load-balancer-controller v1.1.2发布以来,阿里云网络不断收集到来自用户的反馈及新的市场需求,在此基础上持续迭代产品,正式推出全新开源版本alibaba-load-balancer-controller v1.2.0,能力对齐阿里云洛神云网络ALB Ingress Controller商业版v2.10.0。

 

 

01

功能革新、体验升级与最佳实践

 

alibaba-load-balancer-controller v1.2.0在产品功能拓展、用户体验提升以及稳定性保障等方面均做出了显著改进。同时,云网络积极响应用户需求,持续针对高使用率场景推出最佳实践方案,助力用户高效快捷地掌握ALB Ingress在不同业务场景下的配置与使用。

 

 

1.1. 功能特性,强大而全面

 

相较于alibaba-load-balancer-controller v1.1.0,在最新推出的v1.2.0版本中,阿里云网络产品团队紧紧围绕云原生场景下客户的重点需求进行了深入的优化和创新,对实例管理、监听机制、转发规则、服务器组以及安全管理等关键部分进行了全面升级,力求不断丰富产品功能特性,包括:

 

新增更多定制化选项,如自定义标签、资源组指定

 

新增监听支持QUIC协议

 

新增转发条件支持匹配自定义header、cookie、支持path字段的正则匹配;转发动作支持跨域、流量镜像以及更多自定义action

 

新增支持ACL,并提供基于ACL ID和ACL Entry的管理方式

 

新增支持secret证书

 

1.2. 体验优化,简单而专业

 

在alibaba-load-balancer-controller v1.2.0中,阿里云网络产品团队还重点进行了开发使用的体验优化,包括:

 

优化Event通知机制、异常事件反馈和调谐流程等,有助于开发者更快地定位和解决问题,开发者可以通过kubectl describe ingress  -n 查看异常事件报出。

 

优化Ingress资源的无阻塞删除、监听错误隔离等,不同监听之间的异常事件不再互相阻塞,有助于开发者降低运维复杂度和成本。

 

优化异步调用API、资源哈希等,提升响应速度并避免了预期外调谐行为。

 

1.3. 最佳实践,简明而高效

 

如何实现混合挂载、跨地域挂载和本地IDC挂载_容器服务Kubernetes版ACK(ACK)-阿里云帮助中心等最佳实践推出以来不断收获积极反馈,这也推动我们不断探索和总结,推出一系列新的最佳实践:

 

 

1.3.1 实践1:使用ReadinessGate实现ALB Ingress后端Pod滚动升级时平滑上线

 

在Pod上线阶段,需要确保Pod在接收流量之前真正达到可服务状态,开发者可以通过配置ReadinessGate来保证Pod上线阶段的可用性。ALB Ingress Controller支持启用ReadinessGate功能,持续监控ACK集群Pod的状态,等待Pod状态变为可用状态后再将完全启动的Pod挂载到后端服务器组,并向该Pod转发流量。

 

通过在Deployment中配置ReadinessGate自定义Condition:target-health.alb.k8s.alibabacloud,使ACK集群持续监控Pod的状态,直到状态为可用状态才认为Pod已经启动并挂载到后端服务器组上:


apiVersion: apps/v1
kind: Deployment
metadata:
  name: tea
spec:
  replicas: 3
  selector:
    matchLabels:
      app: tea
  template:
    metadata:
      labels:
        app: tea
    spec:
      containers:
      - name: tea
        image: registry.cn-hangzhou.aliyuncs.com/acs-sample/nginxdemos:latest
        ports:
        - containerPort: 80
# 配置readinessGate
      readinessGates:
        - conditionType: target-health.alb.k8s.alibabacloud
---
apiVersion: v1
kind: Service
metadata:
  name: tea-svc
spec:
  ports:
  - port: 80
    targetPort: 80
    protocol: TCP
  selector:
    app: tea
  type: NodePort

 


您可以执行以下命令,检查ReadinessGate配置是否生效:

 

kubectl get pods -o yaml |grep 'target-health'

 

 

预期输出_:


-conditionType:target-health.alb.k8s.alibabacloud 
     message:correspondingconditionofpodreadinessgate"target-health.alb.k8s.alibabacLoud"

 

 

1.3.2 实践2:使用preStop Hook实现ALB Ingress后端Pod滚动升级时平滑下线

 

 

在使用Pod节点作为应用承载平台时,对应用重新部署或对Deployment中Image镜像地址进行修改,会触发Kubernetes滚动更新,旧的Pod会终止服务,新的Pod节点会部署。在Pod滚动升级过程中如果旧的Pod没有平滑退出,会导致应用无法关闭业务请求,访问出现大量5xx状态码,影响业务持续性。通过为Pod设置平滑退出机制,能够保证流量停止/ALB Ingress Controller将Pod从后端服务器组移除后再平滑下线Pod,保证滚动升级过程中流量不中断。

 

您可以通过在Deployment配置内添加preStop Hook,为容器设置一个"Sleep"暂停期。这个暂停期是让容器有时间在收到SIGTERM之前完成网络规则的更新,并等待ALB Ingress Controller完成Server调谐事件并确保Pod已从后端服务器组中移除。这一步骤对于保障Pod的平稳下线至关重要,避免在滚动更新或服务重启期间造成流量中断。


同时,Kubernetes为容器设定了在接收到SIGTERM后能持续运行的最大宽限期(terminationGracePeriodSeconds)为30秒。当程序关闭时间与preStop Hook指定的操作时间之和超过了30秒时,默认宽限期将不足以让容器完成所有的关闭步骤。kubelet会在等待2秒后直接给容器发送立即终止(SIGKILL)信号,导致容器强制退出。如果程序的关闭时间和在Deployment配置的preStop Hook之和超过30秒,您也可以将terminationGracePeriodSeconds重新设置,调整为大于30秒,确保容器优雅退出。


在应用Deployment中添加preStop Hook,并修改终止terminationGracePeriodSeconds时间,配置示例如下:


...
spec:
      containers:
        lifecycle:
          preStop:
            exec:
              command:
# 设置pre Stop Hook函数,使kube-apiserver等待10s
              - /bin/sh
              - -c
              - "sleep 10"
# 设置Pod删除宽限期
      terminationGracePeriodSeconds: 45
...

 

 

您可以在应用Deployment中添加preStopHook并修改terminationGracePeriodSeconds后,持续访问业务,在此期间重新部署应用,实现Pod滚动升级,测试验证平滑下线的有效性。测试脚本示例如下:


#!/bin/bash
HOST="demo.ingress.top"
DNS="alb-kwha5cxwhuiis****.cn-beijing.alb.aliyuncs.com"
printf "Response Code|| TIME \n" >> log.txt
while true
do
  curl -H Host:$HOST  -s -o /dev/null -w "%{http_code}  " -m 1  http://$DNS/ >> log.txt
  date +%Y-%m-%d_%H:%M:%S >> log.txt
sleep 1
done

 

 

预期测试结果_:

 

初始阶段应用副本数为3

 

 

在重新部署应用时,新Pod创建阶段由于新Pod没有就绪,旧Pod仍在提供服务,会同时运行新旧两个Pod

 

 

新Pod就绪且成功挂载至ALB后端服务器组上后,才会终止对应的旧Pod

 

 

所有旧Pod完成preStopHooks函数或超出terminationGracePeriodSeconds超时时间后,kubelet会向container发送信号终止旧的Pod,滚动更新完成

 

 

检查滚动更新过程中请求的状态码,可以看到状态码全部为200,更新过程没有任何中断

 

 

 

02

开启探索,尽在alibaba-load-balancer-controller v1.2.0

 

即刻启动Kubernetes集群,尝试alibaba-load-balancer-controller v1.2.0版本,感受云原生开源网关的新高度,在这里您可以找到详尽的文档和完整的使用指南,协助您轻松上手。

 

开源地址:https://github.com/alibaba/alibaba-load-balancer-controller

 

 


1.您可以自行构建镜像,也可以在Docker Hub拉取我们提供的官方镜像,部署至您的Kubernetes集群。

 

构建镜像:https://github.com/alibaba/alibaba-load-balancer-controller/blob/v1.2.0/docs/dev.md

 

Docker Hub 拉取镜像:docker pull alibabacloudslb/alibaba-load-balancer-controller:v1.2.0


 

2.我们的入门指南将引导您创建AlbConfig、IngressClass及Ingress资源。这是尝试使用ALB Ingress将流量路由至后端服务的最佳实践。

 

入门指南和资源创建:https://github.com/alibaba/alibaba-load-balancer-controller/blob/main/docs/getting-started.md


 

3.通过配置词典全面了解如何定义自己的转发规则,优化您的服务流量分发,以满足具体业务需求。

 

配置词典:https://github.com/alibaba/alibaba-load-balancer-controller/blob/v1.2.0/docs/usage.md

 

 

4.更多使用指南及配置样例,您可以参考官方文档ALB Ingress功能操作指导。

 

官方文档:https://help.aliyun.com/zh/slb/application-load-balancer/user-guide/functions-and-features-of-alb-ingresses?spm=a2c4g.11186623.0.0.16266127az0tB3

 

 

03

携手成长,共创辉煌未来

 

alibaba-load-balancer-controller v1.2.0的发布,标志着阿里云网络对客户承诺的持续兑现和对产品卓越追求的不懈努力。alibaba-load-balancer-controller期望成为开发者可靠的伙伴,为开发者和企业的云原生应用保驾护航!

 

如果您在使用过程中遇到任何问题或对阿里云网络产品改进有任何建议,欢迎访问阿里云网络产品社区或联系技术支持团队,也可以创建issue与我们进行交流:https://github.com/alibaba/alibaba-load-balancer-controller/issues




我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。



相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
2月前
|
运维 Cloud Native 应用服务中间件
阿里云微服务引擎 MSE 及 API 网关 2025 年 6 月产品动态
阿里云微服务引擎 MSE 面向业界主流开源微服务项目, 提供注册配置中心和分布式协调(原生支持 Nacos/ZooKeeper/Eureka )、云原生网关(原生支持Higress/Nginx/Envoy,遵循Ingress标准)、微服务治理(原生支持 Spring Cloud/Dubbo/Sentinel,遵循 OpenSergo 服务治理规范)能力。API 网关 (API Gateway),提供 APl 托管服务,覆盖设计、开发、测试、发布、售卖、运维监测、安全管控、下线等 API 生命周期阶段。帮助您快速构建以 API 为核心的系统架构.满足新技术引入、系统集成、业务中台等诸多场景需要。
|
3月前
|
Kubernetes Cloud Native 安全
云原生机密计算新范式 PeerPods技术方案在阿里云上的落地和实践
PeerPods 技术价值已在阿里云实际场景中深度落地。
|
3月前
|
存储 运维 监控
云服务运行安全创新标杆:阿里云飞天洛神云网络子系统“齐天”再次斩获奖项
阿里云“超大规模云计算网络一体化运行管理平台——齐天系统”凭借卓越的技术创新与实践成果,荣获“云服务运行安全创新成果奖”,同时,齐天团队负责人吕彪获评“全栈型”专家认证。
|
1月前
|
消息中间件 人工智能 监控
【云故事探索 | NO.15】:阿里云云原生加速鸣鸣很忙数字化
【云故事探索 | NO.15】:阿里云云原生加速鸣鸣很忙数字化
|
2月前
|
API
阿里云微服务引擎 MSE 及 API 网关 2025 年 7 月产品动态
阿里云微服务引擎 MSE 及 API 网关 2025 年 7 月产品动态
|
2月前
|
运维 Cloud Native 应用服务中间件
阿里云微服务引擎 MSE 及 API 网关 2025 年 7 月产品动态
阿里云微服务引擎 MSE 面向业界主流开源微服务项目, 提供注册配置中心和分布式协调(原生支持 Nacos/ZooKeeper/Eureka )、云原生网关(原生支持Higress/Nginx/Envoy,遵循Ingress标准)、微服务治理(原生支持 Spring Cloud/Dubbo/Sentinel,遵循 OpenSergo 服务治理规范)能力。API 网关 (API Gateway),提供 APl 托管服务,覆盖设计、开发、测试、发布、售卖、运维监测、安全管控、下线等 API 生命周期阶段。帮助您快速构建以 API 为核心的系统架构.满足新技术引入、系统集成、业务中台等诸多场景需要。
|
2月前
|
数据采集 人工智能 监控
MyEMS 开源能源管理系统后台配置指南 —— 网关管理模块详解
开源能源管控系统面向建筑、工厂等场景的开源能源管理系统,支持电、水、气等数据采集与智能分析,并提供光伏监控、储能管理等功能模块。系统具备完善的网关管理功能,包括网关查看、添加、编辑、删除及批量操作,助力用户高效实现全链路能源管理。
134 1
|
2月前
|
消息中间件 人工智能 监控
【云故事探索】NO.15:阿里云云原生加速鸣鸣很忙数字化
鸣鸣很忙集团作为中国最大休闲食品饮料连锁零售商,通过数字化与云原生技术实现快速扩张,4年完成其他企业10年的数字化进程。其采用阿里云全栈云原生方案,实现弹性扩容、智能补货、模块化开店等创新实践,支撑日均超430万交易数据稳定运行。未来将深化AI应用,推动供应链智能化与业务全面升级。
|
3月前
|
Cloud Native 关系型数据库 分布式数据库
客户说|知乎基于阿里云PolarDB,实现最大数据库集群云原生升级
近日,知乎最大的风控业务数据库集群,基于阿里云瑶池数据库完成了云原生技术架构的升级。此次升级不仅显著提升了系统的高可用性和性能上限,还大幅降低了底层资源成本。

热门文章

最新文章