Day3打卡
使用场景
在高并发场景下,单台服务器可能面临较大的压力,经常会导致服务器响应速度慢,严重的情况会直接导致服务器停止服务。
使用负载均衡的方式,通过SLB将并发的流量分发到两台服务器上,使两台服务器承受的压力都不至于过大
三个核心概念
- 负载均衡实例
实际上是一台用于检测服务器状态以及转发流量的服务器,配置一个负载均衡至少配置一个监听两台ECS实例
- 监听
用于检查后端服务器的状态,也负责将流量转发给后端服务器
- 后端服务器
实际处理用户请求的服务器
云服务器状态确认
两台服务器启动成功
配置负载均衡
- 在匿名窗口登陆子账户
- 左侧导航栏 负载均衡 - 实例管理
选择地区,点击开始配置
- 通过负载均衡业务配置向导,配置负载均衡的 监听端口、后端服务器 和 健康检查 :
3.1 在 协议&监听 页面,输入如下信息,完成后,点击 下一步 。
- 负载均衡协议:选择 HTTP
- 监听端口:设为 80
- 高级配置保持默认
3.2 在 后端服务器 页面,监听请求转发至 默认服务器组,在已添加服务器处点击 继续添加,添加两台实验资源,端口设置为80
3.3 点击提交
3.4 稍微等待一下,负载均衡的状态变为正常
验证配置成果
- 两台服务器的权重相同
访问负载均衡的ip地址,流量将被平均分配到两台服务器中
- 第一次访问
- 第二次访问
- 两台服务器权重不同,流量将会优先分发到权重较大的服务器中(按照权重比例分发)
-
开启配置均衡的会话保持功能,在超时之后流量将被再次分配
- 配置监听,修改高级配置,设置超时时间
- 模拟服务器宕机
手动关机服务器
负载均衡的监听会显示异常
此时请求的流量会被自动转发到正常的服务器上