《企业运维之云上网络原理与实践》——第四章 负载均衡 ALB——配套实验:使用 ALB 实现灰度发布(1)

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 《企业运维之云上网络原理与实践》——第四章 负载均衡 ALB——配套实验:使用 ALB 实现灰度发布(1)

配套实验:使用ALB实现灰度发布

 

 

一、 概述

 

灰度发布(又称为金丝雀发布)是一种平滑过渡的发布方式,将老版本应用与新版本应用同时部署在环境中,让一部分用户继续使用老版本应用,一部分用户开始使用新版本应用,然后根据用户使用情况调整新版本流量占比,逐步把所有用户都迁移到新版本应用。

 

实验网址

https://developer.aliyun.com/adc/scenario/exp/765f8b2b28554f518e2eaf0c1ddcda32


二、 实验目的

 

掌握ALB监听配置;

掌握ALB实现灰度发布。

 

1. 用创建资源

 

在体验实验室页面左侧,单击创建资源,创建所需资源;

在页面左侧导航栏中,单机云产品资源列表,查看本次实验资源相关信息。

 

说明

资源创建过程需要1~3分钟。完成实验资源的创建后,您可以在云产品资源列表查看已创建的资源信息,例如:IP地址、用户名和密码等。

 

2. 了解实验架构

 

实验之前需要理解相关理论概念,然后了解整体的实验架构:

 

image.png

 

3. 实验准备

 

后台会默认创建好对应的云产品资源,这里仅了解和核实环境和相关配置。

 

不同学员会有属于自己的ECS实例,请以实际配置中实例的id为准。系统默认资源自动创建过程需要1~3分钟。完成实验资源的自动创建后,您可以在“云产品资源”列表查看已创建的资源信息,例如:IP地址、用户名和密码等(注意:本实验中两台ECS密码相同)。

 

如下仅供学员了解和参考,不需要去手动创建(如了解,可跳过):

 

创建ECS参考文档

https://help.aliyun.com/document_detail/25422.html

 

ALB实例创建参考文档https://help.aliyun.com/document_detail/197341.html

 

本实验环境已经提前创建ALB实例和2台可以访问公网的ECS实例。ALB已经创建了两个服务器组ALB-APP-V1和ALB-APP-V2,将ECS1加入服务器组ALB-APP-V1,将ECS2加入服务器组ALB-APP-V2监听端口都为80端口。

 

 

说明

用于本实验演示所创建的ALB公网域名是alb-1ta6kknir3839pxmip.cn-hangzhou.alb.aliyuncs.com。

 

image.png 

 

用于本实验演示中两台ECS内网分别是172.16.1.163、172.16.41.238。

用于本实验演示中两台ECS公网分别是47.100.x.x、47.98.x.x。

 

image.png 

 

《企业运维之云上网络原理与实践》——第四章 负载均衡 ALB——配套实验:使用 ALB 实现灰度发布(2) https://developer.aliyun.com/article/1230459?groupCode=supportservice

 

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
负载均衡 算法 5G
m基于5G通信的超密集网络多连接负载均衡和资源分配算法matlab仿真
m基于5G通信的超密集网络多连接负载均衡和资源分配算法matlab仿真
232 4
|
负载均衡 应用服务中间件 Linux
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
168 0
|
1月前
|
运维 负载均衡 监控
提升系统性能:高效运维的秘密武器——负载均衡技术
在当今数字化时代,系统的高可用性和高性能成为各类企业和组织追求的目标。本文旨在探讨负载均衡技术在运维工作中的关键作用,通过深入分析其原理、类型及实际应用案例,揭示如何利用这项技术优化资源分配,提高系统的响应速度和可靠性,确保用户体验的稳定与流畅。无论是面对突如其来的高流量冲击,还是日常的运维管理,负载均衡都展现出了不可或缺的重要性,成为现代IT架构中的基石之一。
54 4
|
3月前
|
负载均衡 网络协议 安全
解析网络流量管理方案:简化基于云的DNS负载均衡
解析网络流量管理方案:简化基于云的DNS负载均衡
94 1
|
4月前
|
缓存 负载均衡 算法
(四)网络编程之请求分发篇:负载均衡静态调度算法、平滑轮询加权、一致性哈希、最小活跃数算法实践!
先如今所有的技术栈中,只要一谈关于高可用、高并发处理相关的实现,必然会牵扯到集群这个话题,也就是部署多台服务器共同对外提供服务,从而做到提升系统吞吐量,优化系统的整体性能以及稳定性等目的。
|
3月前
|
Kubernetes 监控 测试技术
运维.云技术学习.基于应用服务网格的灰度发布(上:理论基础篇)
运维.云技术学习.基于应用服务网格的灰度发布(上:理论基础篇)
70 0
|
6月前
|
负载均衡 算法 网络协议
【专栏】网络高可用性和负载均衡关键在于VRRP、VGMP和HRP协议
【4月更文挑战第28天】网络高可用性和负载均衡关键在于VRRP、VGMP和HRP协议。VRRP实现路由器冗余,保证流量转发;VGMP优化多播流量传输,适合多媒体服务;HRP提供无缝故障转移,适用于电信级网络。选择需考虑网络环境和业务需求,VRRP简单易部署,VGMP处理多播流量,HRP适合高稳定性场景。理解协议特点,确保网络最佳性能和可用性。
171 4
|
6月前
|
负载均衡 网络协议 应用服务中间件
【亮剑】在Linux中构建高可用性和高性能网络服务的负载均衡工具HAProxy、Nginx和Keepalived。
【4月更文挑战第30天】本文介绍了在Linux中构建高可用性和高性能网络服务的负载均衡工具HAProxy、Nginx和Keepalived。HAProxy是一个高性能的开源TCP和HTTP负载均衡器,适合处理大量并发连接;Nginx是一个多功能Web服务器和反向代理,支持HTTP、HTTPS和TCP负载均衡,同时提供缓存和SSL功能;Keepalived用于监控和故障切换,通过VRRP实现IP热备份,保证服务连续性。文中详细阐述了如何配置这三个工具实现负载均衡,包括安装、配置文件修改和启动服务,为构建可靠的负载均衡系统提供了指导。
155 0
|
缓存 运维 负载均衡
运维往事 一次负载均衡坏点检测事故
之前做运维,有一些印象很深的事故,今天来讲其中一个,为了大家能理解,先说一些背景。现在因为流量巨大,单台机器肯定不足以为所有用户提供服务,所以大公司几乎任何一个服务的背后都是一套集群,然而任意一台机器不是100%可靠,如果你想让你服务尽可能接近100%可靠,你的集群就得具备检测和剔除坏点的能力。
81 0
|
域名解析 运维 负载均衡
【运维知识进阶篇】Tomcat集群实战之部署zrlog博客(Tomcat服务安装+静态资源挂载NFS+Nginx负载均衡+HTTPS证书+Redis会话保持)
【运维知识进阶篇】Tomcat集群实战之部署zrlog博客(Tomcat服务安装+静态资源挂载NFS+Nginx负载均衡+HTTPS证书+Redis会话保持)
394 1

热门文章

最新文章

相关产品

  • 负载均衡