Day3-SLB负载均衡相关配置

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
应用型负载均衡 ALB,每月750个小时 15LCU
简介: 在服务器应对大量用户访问(高并发情况)时, 会导致响应速度变慢, 影响用户的正常访问. 而运用负载均衡(Server Load Balancer)可以将访问流量根据转发策略分发到后端多台云服务器的流量分发控制服务. 负载均衡扩展了应用的服务能力, 增强了应用的可用性.

架构

  • 负载均衡实例: 是一个运行的负载均衡服务, 用来接收流量并将其分配给后端服务器.
  • 监听: 用来检查客户端请求并将请求转发给后端服务器.
  • 后端服务器: 一组用来接收前端请求的ECS实例.
    Architecture

配置

  • 登陆阿里云控制台, 输入用户名和密码, 进入后, 点击左侧的产品与服务, 并选择负载均衡:
    aliyunControl
  • 进入后, 点击实例管理, 并选择相应区域:
    aliInstance
  • 开始配置, 选择负载协议, 监听端口和监听名称:
    config
  • 点击下一步后, 选择服务器, 并配置权重和端口:
    weight

权重越大, 该服务器接受的请求越多, 默认是100.
port

  • 最后, 查看提交状态:
    status

验证

  • 输入公网IP, 查看页面并重复刷新, 看后端IP是否在变化:
    compare
  • 修改权重, 并设置不同权重:
    differentWeight

分别将权重设置为3090, 刷新浏览器, 查看后端服务器IP的变化, 可以看到明显的变化.

  • 会话保持, 点击监听, 并选择配置:
    listen

修改高级配置:
advanceMod
开启会话保持, 并更改保持超时时间, 这是在该时间内, 客户端的请求都是同一个服务端来处理:
timeout
会话保持机制的意义就在于,确保在合适的情境下,将来自相同客户端的请求转发至后端相同的服务器进行处理
当然, 当多个服务器的其中几台出现问题后, 负载均衡还能保持用户正常访问服务:
stop
其中, 一台服务器已经停止, 但是访问该公网IP时, 还是能够正常访问的.

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
14天前
|
负载均衡 网络协议 网络安全
SLB-Backend多实例部署配置健康检查
【10月更文挑战第22天】
38 3
|
9天前
|
弹性计算 负载均衡 算法
slb 配置不当
【11月更文挑战第2天】
28 10
|
8天前
|
运维 负载均衡 安全
|
10天前
|
负载均衡 监控 应用服务中间件
slb配置同步问题
【11月更文挑战第1天】
22 3
|
17天前
|
负载均衡 算法
SLB-Backend的负载均衡算法
【10月更文挑战第19天】
35 5
|
18天前
|
弹性计算 负载均衡 算法
slb配置监听器
【10月更文挑战第18天】
35 3
|
1月前
|
负载均衡 Java 应用服务中间件
Nginx负载均衡配置
Nginx负载均衡配置
|
1月前
|
负载均衡 算法 Java
java中nginx负载均衡配置
java中nginx负载均衡配置
38 0
|
1月前
|
负载均衡 算法 应用服务中间件
【nginx】配置Nginx实现负载均衡
【nginx】配置Nginx实现负载均衡
|
5月前
|
缓存 负载均衡 算法
解读 Nginx:构建高效反向代理和负载均衡的秘密
解读 Nginx:构建高效反向代理和负载均衡的秘密
122 2