ECS 7 天实践训练营 - day03 - ECS + SLB 负载均衡实践

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 本次实践主要是通过使用阿里云负载均衡SLB以及对负载均衡SLB后端服务器ECS的权重进行修改,解决一些高并发场景下带来的响应慢、服务器崩溃等问题。

相比于第一天的搭建 FTP 服务,以及第二天的搭建 Docker 环境,此次的 SLB 负载均衡实践更为具体到应用场景中,尤其是高并发场景的应对。

背景知识

SLB负载均衡:负载均衡(Server Load Balancer)是将访问流量根据转发策略分发到后端多台云服务器(ECS实例)的流量分发控制服务。负载均衡扩展了应用的服务能力,增强了应用的可用性。

SLB架构如下图所示:
1.png

(SLB架构由负载均衡实例+监听端口+后端服务器三者组成)

第一节

创建资源,并且通过浏览器访问两台 ECS 服务器的弹性IP,观察两者的后端服务器IP。(观察后发现两者网页内容部署都一样,但是后端服务器IP不一样)

第二节

1.点击左侧导航栏处的云产品资源查看资源信息,点击一键复制url,用浏览器隐身窗口(或无痕模式)登录控制台,输入实验提供的子用户名称子用户密码,完成后点击登录

2.点击产品服务→弹性计算条目下选择负载均衡→左侧实例管理点我开始配置

3.配置负载均衡的监听端口、后端服务器 和 健康检查
3.1. 在协议&监听页面,输入如下信息,完成后,点击下一步 。
负载均衡协议:选择 HTTP
监听端口:设为 80
高级配置保持默认
3.2. 在后端服务器页面,监听请求转发至默认服务器组,在已添加服务器处点击继续添加
3.3. 在弹出的待添加服务器页面,勾选两台云服务器,然后点击下一步添加
3.4. 将新增的两台云服务器的端口设置为80,然后点击下一步
3.5. 在健康检查配置中,开启健康检查按钮为绿色开启状态,然后点击下一步
3.6. 在配置审核页面点击提交并点击知道了

第三节

这一节主要是进行负载均衡验证。

1.通过浏览器访问负载均衡实例的服务地址,并且结合之前第一节观察到的两台 ECS 服务器的后端服务器IP,重复刷新操作后,会发现负载均衡实例后端服务器IP是在之前两个 ECS 服务器的后端服务器IP间轮流更换。

注意:上述验证过程中,涉及三个后端服务器IP,一个是负载均衡实例,两个是第一节处开通的 ECS 服务器,其中负载均衡实例后端服务器IP在两个ECS 服务器后端服务器IP当中轮流更换。

2.通过修改两个已添加服务器权重,可以实现用户通过负载均衡访问的时候,按权重将用户请求分发到两个服务器中。

一般将配置高的服务器设置的权重调高,配置较低的服务器设置的权重调低。

3.通过开启负载均衡的会话保持功能(在配置监听页面的高级配置中开启,在会话保持的超时时间内请求只会分发到某一台 ECS 服务器上(究竟是哪一台 ECS 没有规定),时间超出后,重新按照权重比例分发。

4.当某一台 ECS 出现异常后,负载均衡会自动将请求发送到健康检查状态正常的 ECS 上。

小结

此次实验场景提供了使用阿里云负载均衡功能解决高并发场景的实操指导,未来如果碰到高并发场景不至于一筹莫展。

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
29天前
|
负载均衡 网络协议 Unix
Nginx负载均衡与故障转移实践
Nginx通过ngx_http_upstream_module模块实现负载均衡与故障转移,适用于多服务器环境。利用`upstream`与`server`指令定义后端服务器组,通过`proxy_pass`将请求代理至这些服务器,实现请求分发。Nginx还提供了多种负载均衡策略,如轮询、权重分配、IP哈希等,并支持自定义故障转移逻辑,确保系统稳定性和高可用性。示例配置展示了如何定义负载均衡设备及状态,并应用到具体server配置中。
|
1月前
|
弹性计算 负载均衡 监控
slb分发流量到ecs一般是如何判断?
【9月更文挑战第1天】
40 1
|
2月前
|
负载均衡 监控 算法
揭秘负载均衡的五大算法秘籍:让你的服务器轻松应对亿万流量,不再崩溃!
【8月更文挑战第31天】在互联网快速发展的今天,高可用性和可扩展性成为企业关注的重点。负载均衡作为关键技术,通过高效分配网络流量提升系统处理能力。本文介绍了轮询、加权轮询、最少连接及IP哈希等常见负载均衡算法及其应用场景,并提供Nginx配置示例。此外,还探讨了如何根据业务需求选择合适算法、配置服务器权重、实现高可用方案、监控性能及定期维护等最佳实践,助力系统优化与用户体验提升。
58 2
|
2月前
|
负载均衡 算法 应用服务中间件
负载均衡技术在Web服务器集群中的应用
【8月更文第28天】随着互联网的发展和用户对Web服务需求的增长,单台服务器很难满足大规模访问的需求。为了提高系统的稳定性和扩展性,通常会采用Web服务器集群的方式。在这种架构中,负载均衡器扮演着至关重要的角色,它能够合理地分配客户端请求到不同的后端服务器上,从而实现资源的最优利用。
77 2
|
2月前
|
消息中间件 负载均衡 Kafka
Kafka 实现负载均衡与故障转移:深入分析 Kafka 的架构特点与实践
【8月更文挑战第24天】Apache Kafka是一款专为实时数据处理和流传输设计的高性能消息系统。其核心设计注重高吞吐量、低延迟与可扩展性,并具备出色的容错能力。Kafka采用分布式日志概念,通过数据分区及副本机制确保数据可靠性和持久性。系统包含Producer(消息生产者)、Consumer(消息消费者)和Broker(消息服务器)三大组件。Kafka利用独特的分区机制实现负载均衡,每个Topic可以被划分为多个分区,每个分区可以被复制到多个Broker上,确保数据的高可用性和可靠性。
45 2
|
2月前
|
负载均衡 应用服务中间件 Linux
"揭晓nginx的神秘力量:如何实现反向代理与负载均衡,拯救服务器于水火?"
【8月更文挑战第20天】在Linux环境下,nginx作为高性能HTTP服务器与反向代理工具,在网站优化及服务器负载均衡中扮演重要角色。本文通过电商平台案例,解析nginx如何解决服务器压力大、访问慢的问题。首先介绍反向代理原理,即客户端请求经由代理服务器转发至内部服务器,隐藏真实服务器地址;并给出配置示例。接着讲解负载均衡原理,通过将请求分发到多个服务器来分散负载,同样附有配置实例。实践表明,采用nginx后,不仅服务器压力得到缓解,还提升了访问速度与系统稳定性。
60 3
|
3月前
|
缓存 负载均衡 算法
(四)网络编程之请求分发篇:负载均衡静态调度算法、平滑轮询加权、一致性哈希、最小活跃数算法实践!
先如今所有的技术栈中,只要一谈关于高可用、高并发处理相关的实现,必然会牵扯到集群这个话题,也就是部署多台服务器共同对外提供服务,从而做到提升系统吞吐量,优化系统的整体性能以及稳定性等目的。
|
2月前
|
负载均衡 Cloud Native 容灾
阿里云负载均衡SLB价格_ALB、NLB和CLB区别_负载均衡详细介绍
阿里云负载均衡SLB提供ALB、NLB和CLB三种类型,分别适用于7层和4层的不同场景。ALB与NLB仅支持按量付费,而CLB则额外提供包年包月选项。ALB强调7层应用处理与高级路由,NLB聚焦4层的大流量处理与SSL卸载。两者均支持自动弹性伸缩,确保高可用性和性能。CLB作为传统负载均衡,适用于特定需求。每种类型依据实例规格与使用量收费,其中公网实例还需支付网络费用。通过这些服务,用户可以实现流量分发、故障转移及提升应用系统的稳定性和扩展性。
|
2月前
|
负载均衡 Cloud Native 容灾
阿里云负载均衡SLB价格_ALB、NLB和CLB区别_负载均衡功能和使用场景说明
阿里云负载均衡SLB分为应用型ALB、网络型NLB及传统型CLB。ALB与NLB仅支持按量付费,而CLB则提供包年包月和按量付费选项。ALB专长于7层HTTP/HTTPS/QUIC协议处理,支持丰富的内容路由功能;NLB聚焦于4层TCP/UDP/TCPSSL协议,擅长处理大规模并发连接。两者均基于NFV技术,支持自动弹性伸缩,并与云原生环境如ACK/SAE/K8S深度集成。此外,SLB提供多协议支持、多级容灾、安全防护等功能,确保服务的高可用性和安全性。具体收费方面,ALB的基础版实例费为0.049元/小时起,NLB实例费限时免费,两者还需支付性能容量单位LCU费及公网网络费(仅公网实例)
|
4月前
|
缓存 负载均衡 算法
解读 Nginx:构建高效反向代理和负载均衡的秘密
解读 Nginx:构建高效反向代理和负载均衡的秘密
103 2