Server Load Balance-阿里云开发者社区

开发者社区> 阿里云高校学研支持计划> 正文

Server Load Balance

简介: No content

Server Load Balance

Introduction

  • 当存在多台服务器组成的后端被大量的IP访问时(或者DDos攻击),会造成某服务器的过载停机。
  • SLB(Server Load Balance)则是在动态地将访问流量转发给后端服务器群,确保每台主机的负载均衡。
  • 实现方式:计算资源虚拟化——应用服务池。SLB根据需求和后端状态,将服务池中的请求发送给多台服务器。

环境

  • CentOS x86 $\times$ 2
  • 二者部署的是同一个网站(但是后端IP是不同的机器)
  • SLB

ALi 的 SLB 配置

  • 工作台 --> 负载均衡 --> 开始配置实例
  1. 协议、监听:HTTP , 80端口
  2. 后端server:默认组,添加后端实例,端口都设置为80
  3. 提交

测试:验证SLB性能

  • 转发
  1. 访问SLB的公网IP --> 依次转发给不同的后端server
  2. 默认servers group:修改servers的权重
  3. 再次访问SLB公网IP --> 按照权重比例访问不同server
  • 会话保持、
  1. 监听 --> 配置 --> 高级 --> 开启会话保持 (180 s)
  2. 访问公网IP --> 保持在其中之一server上180 s
  • server异常测试
  1. 默认server group: 关闭该server
  2. 访问公网IP --> SLB转发到其余的server上了

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
阿里云高校学研支持计划
使用钉钉扫一扫加入圈子
+ 订阅

阿里云高校学研支持计划旨在为高等院校师生提供包括算力、培训、平台 等全方位支持,助推高校计算机学科建设、培养数字经济时代的前沿技术人才、为多学科跨 领域科研探索提速增效。目前,我们已经开启了学生成长计划、教学支持计划和科研加速 三大板块。精彩内容,先睹为快。

官方博客
申请加入高校学研支持计划
友情链接