云原生网关开源、自研、商业化三位一体战略背后的思考-阿里云开发者社区

开发者社区> 阿里中间件> 正文
登录阅读全文

云原生网关开源、自研、商业化三位一体战略背后的思考

简介: 10月26日下午15:00,云原生网关技术负责人--如葑在直播间等您。

作者:如葑

阿里巴巴三位一体战略解读之云原生网关开源、自研、商业化,目前云原生网关已正式商业化,旨在为用户提供更可靠的、成本更低、效率更高的符合K8s Ingress标准的企业级网关产品,更多详情将在10月26日下午15:00直播间详细为您讲解,详情戳:https://yqh.aliyun.com/live/detail/26605


阿里云云原生三位一体总体战略解读

目前开源软件已经成为企业软件创新发展的主要平台,在此大背景下阿里巴巴云原生提出了三位一体战略,即开源、自研与商业化,希望以开源做内核、结合阿里集团内部业务需求做自研进一步打磨软件的性能与高可用、然后以商业化产品的方式向所有用户开放,同时也会向开源社区持续贡献,最终形成三位一体的旋转飞轮。整体策略简介如下图:

1.png

云原生团队业务整体上分为三层:BaaS、Runtime、Serverless,各层以开源软件为内核,并结合阿里业务在开源内核集成商做内部扩展,在经大规模生产验证后推向商业化。

阿里云三位一体的优势

在三位一体中,开源、自研与商业化都有其各自的侧重点或者特点,先来看一下图示说明:

2.png

依托开源作为内核,以阿里巴巴内部庞大且复杂的业务场景为需求驱动自研扩展,在经历大规模生产级验证后推向商业化,同时向开源社区提交适合大众化的自研功能,这就是阿里云三位一体的优势所在。

云原生网关发展轨迹

云原生网关的诞生背景

云原生网关最初的创建来自于内部的“本地生活战役”,该战役始于“支付宝2020合作伙伴大会”,在此大会上支付宝宣布升级为数字生活开放平台,详细见此链接。该战役的核心技术目标是实现阿里巴巴业务域与蚂蚁业务域之间RPC直接调用,因阿里巴巴与蚂蚁业务域网络是隔离的,即网络是不通的,很自然想到利用网关来解决此问题。“本地生活战役”的简要介绍如下:

3.png

云原生网关的技术选型

利用网关解决阿里巴巴与蚂蚁跨业务域RPC互通问题,首先要对网关做技术选型,相信大家也都或多或少知道阿里巴巴开源的反向代理程序Tengine,Tengine在阿里内部统一接入网关AServer中被使用,我们团队当时就是负责开发运维AServer的,同时我们团队也在负责阿里巴巴Service Mesh的落地,不管是对Tengine还是Istio + Envoy这套架构都比较熟悉。在选型时虽然也调研过一些其他的软件,但考虑到网关对性能、可靠性的高要求,在结合我们自身的网关运维经验,决定看看Tengine与Envoy是否可以满足我们的业务需求,在对比时我们罗列了四个关键要点,其对比如下:

4.png

这里提一下“为什么我们认为配置的热更新是非常重要的?”,Tengine/Nginx的配置更新需要reload,reload需要重启worker进程,重启时会引起流量抖动,对长连接影响尤为明显。在网关的集群规模非常大时,更是不能随意的做reload,这时就会引发一个矛盾点:业务向网关提交配置后希望能快速验证、受限于reload机制网关考虑到稳定性无法满足业务快速验证与快速试错的诉求。如何解决这点呢?一是采用两层网关,即流量网关 + 业务网关,二是网关原生支持配置热更新。

通过对比初步选型Envoy后,我们进一步调研了Envoy作为网关在业界的趋势,结论是目前Envoy作为K8s中的Ingress Provider是增长最快的程序(Ingress Provider指K8s Ingress规范具体实现,因K8s Ingress自身只是规范定义,是K8s下外部流量进入集群内部的网关规范定义),看下图:

5.png

云原生网关的发展历程

云原生网关从最初社区的Istio + Envoy,到经历阿里内部的自研扩展,再到大规模生成验证,最后完成商业化产品的发布,其整个过程介绍如下:

6.png

云原生网关三位一体飞轮的形成

在云原生网关正式商业化后,目前云原生网关完成了开源、自研、商业化的完整发展,三位一体的旋转飞轮已经成型。我们也会持续的、坚定的向开源社区贡献自己的力量,例如向Envoy社区提交了Dubbo支持、云原生消息团队提交了RocketMQ支持、以及其他小的Issue等。

7.png

了解云原生网关三位一体的发展后,接下来我会具体介绍下云原生网关的产品定位及其优势。

云原生网关介绍

传统网关分类及部署模式

行业中通常把网关分为两个大类:流量网关与业务网关,流量网关主要提供全局性的、与后端业务无关的策略配置,例如阿里内部的的统一接入网关Tengine就是典型的流量网关;业务网关顾名思义主要提供独立业务域级别的、与后端业务紧耦合策略配置,随着应用架构模式从单体演进到现在的分布式微服务,业务网关也有了新的叫法 - 微服务网关(图示说明如下)。在目前容器技术与K8s主导的云原生时代,下一代网关模式依然是这样吗?

8.png

下一代网关产品画像

正如上文图中的提问:在容器技术与K8s主导的云原生时代,下一代的网关模式仍然会是传统的流量网关与微服务网关两层架构吗?带着这个问题并结合阿里内部沉淀的网关技术与运维经验,我们尝试为下一代网关产品做了产品画像,说明如下:

9.png

作为下一代网关产品,我们对其中几个非常核心的要素展开说明下:

  • 云原生:要支持标准K8s Ingress、K8s Gateway API以及K8s服务发现,在云原生时代K8s已经成为云OS,而K8s原生集群内外部的网络是隔离的,负责外部流量进入K8s集群的规范定义就是K8s Ingress,K8s Gateway API是K8s Ingress的进一步演化,基于此作为下一代网关势必要支持这种特性。
  • 拥抱开源:要基于开源生态构建网关,借助开源并助力开源,相信这点大家应该都不陌生。
  • 高扩展:任何一个网关的能力都不可能覆盖所有的用户诉求,要具备可扩展能力,例如K8s的蓬勃发展其开放的扩展能力功不可没。
  • 服务治理:随着应用架构演进到分布式微服务,网关本身就是为后端业务提供流量调度能力,其支持基本的服务治理能力也就顺其自然了。
  • 丰富的可观测性:分布式微服务架构带来协同效率提升等益处的同时,对于问题排查及运维带来了更大的挑战,作为流量桥头堡的网关需要具备丰富的可观测数据,帮助用户来定位问题。

云原生网关的定位

基于上述我们对下一代网关的理解,率先在阿里内部推出了云原生网关,并成功在多业务上线部署且经历了双11大促的考验,云原生网关图示说明如下:

10.png

云原生网关的产品优势

更经济:将流量网关与微服务网关合二为一,用户资源成本直降50%

在虚拟化时期的微服务架构下,业务通常采用流量网关 + 微服务网关的两层架构,流量网关负责南北向流量调度和安全防护,微服务网关负责东西向流量调度和服务治理,而在容器和 K8s 主导的云原生时代,Ingress 成为 K8s 生态的网关标准,赋予了网关新的使命,使得流量网关 + 微服务网关合二为一成为可能。

此次阿里云 MSE 发布的云原生网关在能力不打折的情况下,将两层网关变为一层,不仅可以节省50%的资源成本,还可以降低运维及使用成本。部署结构示意图如下,左边为传统网关模式,右图为下一代云原生网关模式。

11.png

在微服务的大背景下,丰富的可观测能力也是用户的基础核心诉求,云原生网关基于此默认集成了阿里云应用实时监控服务ARMS,提供丰富的可观测数据,且该功能对用户免费。

12.png

更安全:提供丰富的认证鉴权能力,降低客户的安全接入成本

认证鉴权是客户对网关的刚需,MSE 云原生网关不仅提供常规的 JWT 认证,也提供基于授权开放网络标准 OAuth 2.0 的 OIDC 认证。同时,MSE 云原生网关天然支持阿里云的应用身份服务 IDaaS,帮助客户实现支付宝、淘宝、天猫等的三方认证登陆,并以插件的方式支持来扩展认证鉴权功能,以降低客户的安全接入成本。现有认证鉴权功能如下图:

13.png

更统一:网关直连后端服务,打通 Nacos/Eureka/K8s 多种服务来源,并且率先支持 Apache Dubbo3.0 协议

开源已经成为推动软件发展的源动力之一,面向社区标准、开放的商业产品更有生命力。

Envoy 是最受 K8s 社区欢迎的 Ingress 实现之一,正成为云原生时代流量入口的标准技术方案。MSE 云原生网关依托于 Envoy 和 Istio 进行构建,实现了统一的控制面管控,并直连后端服务,支持了 Dubbo3.0、Nacos,打通阿里云容器服务ACK,自动同步服务注册信息。MSE 云原生网关对 Dubbo 3.0 与 Nacos 的支持,已经率先在钉钉业务中上线,下图是钉钉 Dubbo 3.0 落地的部署简图如下:

14.png

更稳定:技术积淀已久,历经2020双11考验,每秒承载数10万笔请求


商用产品并非一朝一夕。

MSE 云原生网关早已在阿里巴巴内部经历千锤百炼。目前已经在支付宝、钉钉、淘宝、天猫、优酷、飞猪、口碑等阿里各业务系统中使用,并经过2020双11海量请求的考验,大促日可轻松承载每秒数10万笔请求,日请求量达到百亿级别。

15.png

云原生网关适用场景

云原生网关目前可以涵盖南北向、东西向全业务场景,即可以支持传统的注册中心,例如Nacos,也可以支持K8s Service,同时也可以支持传统ECS,下面通过图示说明如下:

16.png

Nginx网关迁移云原生网关实践案例

优酷Nginx网关迁移案例

优酷业务内部有三个利用Nginx构建的网关,使用Lua脚本做了一些业务扩展,但是随着人员迭代,网关的运维变得越来越困难,主要包括Lua脚本维护难、配置变更不实时、多网关运维难以及配置变更reload与业务快速迭代的矛盾越来越多,因此我们配合业务一起完成了Nginx网关到云原生网关的平滑迁移,为了保障迁移平滑、低成本,在云原生网关中专门针对Nginx的error page等功能做了扩展。如下图:

17.png

看到上面这幅图读者可能问为什么采用了两层网关结构?即AServer(流量网关) + 业务自建网关,这是因为对于阿里巴巴这种超大流量的业务,采用两层架构,由流量网关统一负责安全防护、全局流量调度成本会更低,不需要每个业务BU都做重复的事情,业务自建网关挂在流量网关之后又可以满足业务自身快速迭代的要求;但是对于非超大规模的业务,使用两层架构反而会带来运维复杂度的上升。

Ingress-nginx迁移方案

在K8s Ingress Provider中虽然使用Envoy架构的用户增长排在第一位,但不可否认的是目前Ingress-nginx仍占据K8s Ingress Provider最大的份额,那么云原生网关是否可以兼容Ingress-nginx配置,为用户提供低成本甚至零成本的迁移方案呢?带着这个问题我们也做了探索,Ingress-nginx并没有采用定义新CRD的方式来扩展标准K8s Ingress能力,而是利用Annotation的方式,首先我们分析了Ingress-nginx的Annotation列表,如下:

18.png

依据用户使用度对齐做了优先级排序,其中处于高、中的Annotation云原生网关已经支持自动转换,剩余的除了插入代码片段等这些跟Nginx内部实现相关的Annotation外我们也正在逐步的支持转换,目标就是做到零成本的迁移。转换流程简图如下:

19.png

写在最后


云原生网关提供后付费和包年包月两类付费模式,支持杭州、上海、北京、深圳 4个 region,并会逐步开放其他 region,云原生网关购买链接在这里


也可钉钉搜索群号 34754806 可加入用户群交流、答疑。

image

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
阿里中间件
使用钉钉扫一扫加入圈子
+ 订阅

为企业提供高效、稳定、易扩展的中间件产品

官方博客
最新文章
相关文章
链接