消息队列和应用工具产品体系-申通快递云原生应用实践

本文涉及的产品
Serverless 应用引擎 SAE,800核*时 1600GiB*时
云消息队列RocketMQ,TPS总和2000次/秒
简介: 消息队列和应用工具产品体系-申通快递云原生应用实践
+关注继续查看

开发者学习笔记【阿里云云原生助理工程师认证(ACA)课程:消息队列和应用工具产品体系-申通快递云原生应用实践】

课程地址:https://edu.aliyun.com/course/3112075/lesson/19054


消息队列和应用工具产品体系-申通快递云原生应用实践


内容介绍

一、云原生理念和微服务架构在企业的综合实践方案

二、数据库的云原生化方案
三、申通公司应用阿里云产品的总体情况

四、申通这套云上应用环境的后续展望

 

一、云原生理念和微服务架构在企业的综合实践方案

第一个案例的主角是国内最大的物流公司之一申通快递这个故事依然得从双十一说起为了解决双十一的技术挑战,申通的技术部门在物流场景中引入了IOT、大数据和AI等手段,并通过快速的技术迭代促进物流资源的有效配置,从而帮助公司面对大促后的物流洪峰。

总体来说,快速的技术迭代带来了对it基础设施的挑战。

image.png

传统的虚拟化架构在弹性方面就显得力不从心了比如上云前申通使用线下机房作为计算及数据存储的平台,一到双十一资源需求就膨胀大促之后则闲置浪费上云后,几乎全部的资源都是按量购买利用云原生技术的快速扩缩容的特性,双十一前快速扩容,双十一后有序释放,真正做到了开箱即用,不产生一天的浪费。与2019年双十一当天相比,2020年11月1日到3日,申通在业务量大幅提升的情况下,it投入反而降低了30%。这充分的体现了云原生应用快速迭代、高可用、弹性好、成本合理的特点,是一次成功的技术升级。目前,申通正把业务从IDC机房往云上搬迁,核心业务系统也已经在云上完成了流量的承接。

这套IDC系统帮助申通实现了早期的快速发展但也暴露了不少问题传统的IOE技术体系各系统架构不规范,运行不稳定,研发效率不高,这些都无法满足申通的业务发展需求。随着云计算在国内的发展成熟,越来越多的企业把自己的核心业务搬到了云上。申通在同阿里云进行多次的技术交流后,最终确定其为唯一的合作伙伴,为企业提供计算和数据的处理平台。下面我们结合容器技术及其相关的趋势,详细的分析一下申通云原生的技术架构。首先说申通业务上云的应用云原生化技术改造。

申通原来的技术核心是基于Vmware家族的虚拟化应用和oracle的数据库。计划上云后,打算通过阿里云全面转型到基于Kubernetes的云原生架构体系也就是说应用架构需要根据云原生特性进行重构。

这个过程主要涉及两个方面

第一方面,程序代码的改造升级,核心是应用的容器化和架构的微服务化。容器是云原生的一大基础,跟虚拟机比起来使用更轻量的容器来实现虚拟化,能够为应用带来效率和速度的提升,并让其更加适合微服务架构此外,通过应用的容器化还解决了基础设施不一致的问题,保证了应用在开发、测试和生产环境的一致性。

下面来谈谈微服务架构改造的目的。原来很多业务是基于oracle的存储过程及触发器来实现系统之间的服务依赖也是走的数据库ODG同步来完成的这种方式的问题就是系统非常的难于维护,也非常的不稳定。
架构升级时,通过引入Kubernetes的服务发现和微服务架构的方案,按业务域进行拆分,让整个系统更加易于维护。


二、数据库的云原生化方案

借助阿里云申通引入了ORTP和ORDP种不同类型的数据库,将在线数据与离线数据分析逻辑进行拆分,并分别存入了这两种数据库中,从而取代了oracle的数据库方案并解决了诸如查询历史数据的时候oracle表现不佳的问题。

下面我们对比这张图介绍一下申通云原生的基础架构。
image.png

第一,基础设施全部的计算资源取自阿里云的神龙裸金属服务器,Kubernetes搭配神龙服务器,能够获得更佳的性能及更合理的资源利用率。云上资源可以按量付费,特别适合大促场景,伸缩自如。相比于线下自建机房和常备机器,云上资源的操作更加方便,管理成本也更低。

第二,流量接入申通共有三套流量接入系统,一套是面向公网请求的,一套是面向自有办公和生产需求的。还有一套是仅供服务内部调用的域名解析采用云DNS及private zoom,同时借助了Kubernetes的ingress能力来做统一的域名转发,这样可以节省公网SLB的数量,便于运维管理。

第三,平台的选择,申通pass平台基于阿里云容器服务ACK进行打造了该平台具备测试、集成、预发生产统一环境,能够打通devoaips闭环。由于其天生的资源隔离,机器资源利用率高,且支持多云跟混合云的部署上云后每个应用都在Kubernetes上面创建单独的name space,并定义配置模板。通过该方案,申通实现了应用的资源隔离版本的快速升级和历史回滚。

第五,运维管理得益于阿里云的托管版容器服务,申通免去了运维master节点的工作,只需要制定works节点的上线及下线流程即可。同时,上面运行的业务系统均通过pass平台完成日志的搜索系统,根据策略按需自动完成扩容操作,降低了直接操作Kubernetes集群所带来的风险。

下面我们来结合左边的这张图,从三个角度说明一下申通的云原生服务的特点。

image.png

首先我们说说应用和数据迁移的特点。申通的云上业务系统及业务中间件均是通过镜像的方式部署的应用通过服务发现组件进行注册和调用,全部在线应用对应的POD及service配置均保存在pass平台里面。每个应用的历史镜像版本都保存在系统中,这样随时可以基于这份配置快速的构建一套业务生产环境

数据的迁移,这个过程主要是通过DTS工具将数据及增量迁移到云上。阿里云的DTS实时数据流服务集数据迁移订阅同步于一体,可以提供稳定安全的数据传输链路。此外,小文件存储保存在OSS上面,并以nas作为共享存储介质,挂载到神龙节点,以实现服务集成的特点,申通技术以K8S集群作为计算资源,通过gate执行版本控制,并借助云环境高效的实现了应用的构建编译及镜像的上传业务镜像保存在镜像服务仓库中。

最后云平台的高可用性保证,也是云原生服务的关键。阿里云的K8S集群通过控制应用的副本数来保证集群的高可用。当节点出现故障时,通过负面数的保持,可以快速的在其他works节点上再起新的pot,再配合负载均衡等组件业务中的高可用性也得到了保障。

介绍了申通云原生应用的特点我们再来谈一谈这套方案的创新指数

第一,申通通过自己的应用和业务特点,制定了一套有效的监控体系。监控系统的任务是发现业务故障,通过引入监控体系,主动发现业务问题,快速响应并解决故障。申通在同一个pot里面部署了两个容器,一个是业务容器,一个是log tail容器应用只需按照运维定的目录,将业务日志打进去即可以完成监控数据的采集。

第二,在申通的云原生环境中,pot和ECS网络处于同等地位。

这一创新点是基于阿里云的特殊网络插件来实现的。相比于传统的社区插件特位根据阿里云的网络环境深度优化,主要有几个额外的特性

第一,不依赖VPC路由表就能够打通网络,因此节点的规模不受路由表的限制。

第二,不需要额外为POD规划olay的网段。

第三,混合云专线打通,也无需额外配置路由。

第四,可以直接将POD挂载到SLB的后端。

第五,性能至少提升了20%。

因此,申通的云原生服务架构具备一个高性能且健壮的网络技术。申通的技术团队定义了三套接入环境及三套业务环境。三套接入环境指的是公网办公网和内网公网主要是适合跟外部客户对接该网络环境通过统一的证书卸载,有助于收敛公网IP办公网只允许指定语言IP的请求,并通过网络ACL让整个应用的访问更加安全。内网适合于业务之间及混合云架构下IDC业务调用云上应用,以保证性能和安全。三套业务环境则是根据业务产品的生命周期划分的,分别是测试用的测试环境发布前验证产品的预发环境和产品正式运行的生产环境。

 

三、申通公司应用阿里云产品的总体情况

首先在成本方面,公共云可以做到随用随付,完即销毁,按量付费。另外阿里云的产品都是免托管运维的,可以节省人工运维的成本,让企业更加专注于做核心的业务。

其次,稳定性方面,云上产品至少提供了五个9以上的SLA服务,确保稳定性。阿里云的数据类产品也具备高可靠、低成本、安全性、存储、无线等特点,让企业的数据更加的安全。

第三,效率方面,借助阿里云相关的产品深度的集成,可以实现一站式的研发运维工作。

第四,赋能方面,阿里云的组件和产品涵盖了计算、AI、大数据、IOT等诸多的领域。通过已有的技术组件可以节省业务创新带来的技术成本。


四、申通这套云上应用环境的后续展望

目前,申通已经使用了云原生技术,快速的将基础设施迁移到云上,解决了成本预算问题、服务监控问题、服务接入和负载均衡等问题,让公司以更低的成本、更稳定的方式来应对快递高峰。对于类似于申通这样的传统企业,数字化转型和上云来说,使用云原生技术的内置组件和能力可以大幅降低企业研发和运维人员的技术迁移成本让企业技术人员只需要关心业务研发和迁移,而无需管理大量的基础设施迁移成本可以说是企业上云的最佳路径。

申通下一步将会结合云原生技术,在以下三个方面优化系统。

第一,实时的弹性调度快递业务是典型的周期性业务,使用云原生技术的实时弹性调度能力,可以让每天的业务高低峰都能够自动弹性伸缩,有望再节省一大笔的资源成本。

第二,智能运维和安全生产。根据云原生的细颗粒度监控能力,结合AI ops技术,针对各项系统和业务指标进行分析和诊断,从而及时的发现和处理异常事件。

第三,网络服务引入网格技术来优化目前的微服务架构,统一微服务调度的协议,实现全链路追踪和监控,进而提升研发和运维的效率。

 

 

 

 

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
20天前
|
消息中间件 存储 NoSQL
MQ消息队列篇:三大MQ产品的必备面试种子题
MQ(Message Queue)作为一种用于实现异步通信的技术,具有重要的作用和应用场景。在面试过程中,MQ相关的问题经常被问到,因此了解MQ的用途和设计原则是必不可少的。本文总结了MQ的常见面试题,包括MQ的作用、产品选型、消息不丢失的保证、消息消费的幂等性、消息顺序的保证、消息的高效读写、分布式事务的最终一致性等方面。通过深入理解这些问题,可以更好地理解MQ的应用和设计,为面试和实际应用提供参考。
|
3月前
|
消息中间件 Cloud Native 安全
消息队列和应用工具产品体系-云原生技术的未来展望
消息队列和应用工具产品体系-云原生技术的未来展望
165 0
消息队列和应用工具产品体系-云原生技术的未来展望
|
3月前
|
消息中间件 运维 监控
消息队列和应用工具产品体系-完美日记电商业务案例
消息队列和应用工具产品体系-完美日记电商业务案例
53 0
消息队列和应用工具产品体系-完美日记电商业务案例
|
3月前
|
消息中间件 监控 Java
消息队列和应用工具产品体系-ARMS 监控种类简介(2)
消息队列和应用工具产品体系-ARMS 监控种类简介(2)
95 1
消息队列和应用工具产品体系-ARMS 监控种类简介(2)
|
3月前
|
存储 消息中间件 监控
消息队列和应用工具产品体系-ARMS 服务的产品功能
消息队列和应用工具产品体系-ARMS 服务的产品功能
144 0
|
3月前
|
消息中间件 监控 数据处理
消息队列和应用工具产品体系-APM 系统简述和架构演化
消息队列和应用工具产品体系-APM 系统简述和架构演化
94 0
|
3月前
|
消息中间件 弹性计算 监控
消息队列和应用工具产品体系-PTS 压测报告解读
消息队列和应用工具产品体系-PTS 压测报告解读
92 0
消息队列和应用工具产品体系-PTS 压测报告解读
|
4月前
|
弹性计算 Kubernetes Cloud Native
现代化部署与管理:ECS容器化与云原生应用实践
本文深入研究了云服务器ECS的容器化与云原生应用部署策略,重点关注了Docker、Kubernetes等容器化技术的基本概念,以及ECS与容器的集成。在第八章的容器化技术简介部分,我们介绍了如何使用Docker打包和部署应用,以及如何在ECS上部署容器化应用。通过示例代码,读者可以了解如何在ECS中集成容器化应用。
174 0
|
11月前
|
消息中间件 弹性计算 负载均衡
钉钉 IM 基于 RocketMQ 5.0 的云原生应用实践
POP 模式消费模式已经在钉钉 IM 场景磨合得非常成熟,在对可用性、性能、时延方面要求非常高的钉钉 IM 系统证明了自己,也证明了不断升级的 RocketMQ 是即时通讯场景消息队列的不二选择。
141 0
钉钉 IM 基于 RocketMQ 5.0 的云原生应用实践
|
Kubernetes Cloud Native 容器
《Kubernetes上基于Istio体验云原生应用实践》电子版地址
Kubernetes上基于Istio体验云原生应用实践
65 0
《Kubernetes上基于Istio体验云原生应用实践》电子版地址
相关产品
云消息队列 MQ
微服务引擎
函数计算
推荐文章
更多