链路负载均衡笔记

本文涉及的产品
应用型负载均衡 ALB,每月750个小时 15LCU
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
简介:

Load Balance 负载均衡、LLB链路负载均衡

产生背景:
网络带宽增长的同时带来用户数量的增长,使得服务器资源消耗严重,因而服务器成为网络瓶颈,传统的单机模式,也往往成为网络故障点


1、服务器硬件升级
缺点:成本高、资源浪费、可扩展性差、无法完全解决网络面临的问题
2、组建服务器集群,利用负载均衡技术在服务器集群间进行业务负载均衡
多台服务器通过网络设备相连组成一个服务器集群,每台服务器都提供相同或相似的网络服务,前端部署一台负载均衡设备


负载均衡是一种集群技术,它将特定的业务分担给多台服务器、网络设备或多条链路,提高业务整理处理能力,同时保证了业务的可靠性


网络防卫越严格,需要越仔细检测过往的报文,从而导致转发性能越低,成为网络瓶颈

解决带宽访问问题:往往会租用两个或多个运营商出口

策略路由无法动态适应网络结构变化根据带宽进行报文转发
链路负载均衡技术通过算法,能够在多条链路中进行负载均衡

负载均衡对外提供的服务成为虚服务,客户的访问请求通过公共或私有网络达到负载均衡设备,匹配到虚服务后,由负载均衡设备按照指定策略分给真实服务

服务器负载均衡分为:L4服务器负载均衡、L7服务器负载均衡
L4服务器负载均衡:支持IPv4、IPv6协议,基于流的负载均衡,对报文进行逐流转发NAT和DR方式
L7服务器负载均衡:只支持IPv4协议,基于内容的负载均衡,对报文的承载内容进行深度解析(NAT方式)

防火墙负载均衡实现原理:(部署方式:两侧LB中间FW
防火墙基于会话开展业务的,即一个会话的请求和一个应答报文必须同一个防火墙,为了保证防火墙业务正常进行,内部组网不受影响,需要采用双侧负载均衡
一级LB设备做防火墙负载均衡,二级LB设备保证从哪个防火墙进来的流量,还要从这个防火墙返回

LB双机热备方案:
1、主备模式:备的不处理业务,只做备份,当主的出现故障才接替设备处理业务
2、负载分担模式:两台LB都为主设备,都处理业务流量,同时相互互备


负载均衡机制
调度算法:根据配置规则,将客户端的请求均衡地分发到后台应用服务器
(轮询、随机、最大带宽、源IP地址、最少连接等)
健康性检测算法:实时监控服务器运行状态,只会把用户数据发送到正常的服务器
(通过一种探测机制,检查服务器运行状况、避免客服端的访问发给出现故障的服务器或链路,以提高业务的可靠性)

链路负载均衡:outbound链路负载均衡、inbound链路负载均衡
outbound链路负载均衡:将用户访问外网的流量均匀地分担多条出口链路上(基于目的地址)
inbound链路负载均衡:在多条链路上分担外网用户访问内网服务器的流量(基于源地址)


链路负载均衡可以实现负载分担、链路冗余备份

outbound链路负载均衡工作原理:
负载均衡设备依次根据持续性功能、ACL策略、就近算法、调度算法等多种方式选择最佳的物理链路,将业务流量分发到该链路,同时采用健康性检测算法实时监控链路状态,一旦链路出现故障,就不再将数据分发到该链路,LB同时起到负载分担、链路备份功能

链路负载均衡四个组成部分:物理链路、逻辑链路组、逻辑链路、虚服务
物理链路:转发报文的实际链路
逻辑链路组:一组逻辑链路的集合
逻辑链路:物理链路的处理业务的逻辑载体
虚服务:集群面向用户的逻辑载体,匹配用户目的IP地址、协议、端口等

inbound链路负载均衡工作原理:
负载均衡设备作为权威域名服务器记录域名与内网服务器IP地址映射关系,一个域名可以映射多个IP地址,其中一个IP对应一条物理链路。外网用户通过域名方式访问内网服务器时,本地DNS服务器将域名解析请求转发负载均衡设备,负载均衡设备依次根据ACL策略、ISP选路等选择最佳的物理链路


备注:负载均衡器影响网络延迟,可能业务负载分担考虑路径的往返










本文转自 周小玉 51CTO博客,原文链接:http://blog.51cto.com/maguangjie/1916321,如需转载请自行联系原作者
相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
8月前
|
负载均衡 应用服务中间件 开发工具
技术笔记:nginx和keeplive实现负载均衡高可用
技术笔记:nginx和keeplive实现负载均衡高可用
|
9月前
|
负载均衡 算法 应用服务中间件
【微服务系列笔记】负载均衡
本文介绍了负载均衡的概念和重要性,指出随着流量增长,通过垂直扩展和水平扩展来提升系统性能,其中水平扩展引入了负载均衡的需求。负载均衡的目标是将流量分布到多台服务器以提高响应速度和可用性,常见的硬件和软件负载均衡器包括F5、A10、Nginx、HAProxy和LVS等。 文章接着提到了Ribbon,这是一个客户端实现的负载均衡器,用于Spring Cloud中。Ribbon在发起REST请求时进行拦截,根据预设的负载均衡算法(如随机算法)选择服务器,并重构请求URI。文中还介绍了如何通过代码和配置文件两种方式自定义Ribbon的负载均衡策略。
441 3
|
负载均衡 网络协议 算法
关于开发中负载均衡(代理)的一些笔记
如果能深刻理解苦难,苦难就会给人带来崇高感 。 ——路遥
198 0
关于开发中负载均衡(代理)的一些笔记
|
弹性计算 负载均衡
【ECS进阶实践】Day3笔记 SLB负载均衡实践
通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题。
421 1
【ECS进阶实践】Day3笔记 SLB负载均衡实践
|
弹性计算 负载均衡
SLB负载均衡实践的笔记
SLB负载均衡实践:首先云服务器状态确认,然后负载均衡配置,最后负载均衡验证。
SLB负载均衡实践的笔记
|
弹性计算 负载均衡 数据安全/隐私保护
Day3 - ECS+SLB负载均衡实践笔记
负载均衡:是将访问流量根据转发策略分发到后端多台云服务器(ECS实例)的流量分发控制服务。负载均衡扩展了应用的服务能力,增强了应用的可用性。 通过设置虚拟服务地址,将添加的ECS实例虚拟成一个高性能、高可用的应用服务池,并根据转发规则,将来自客户端的请求分发给云服务器池中的ECS实例。 架构 负载均衡服务主要有三个核心概念: 负载均衡实例:一个负载均衡实例是一个运行的负载均衡服务,用来接收流量并将其分配给后端服务器。 监听 :监听用来检查客户端请求并将请求转发给后端服务器。监听也会对后端服务器进行健康检查。 后端服务器:一组接收前端请求的ECS实例。
315 0
Day3 - ECS+SLB负载均衡实践笔记
|
负载均衡 算法 应用服务中间件
nginx笔记4-负载均衡带来的问题以及解决办法
接着笔记3,将笔记三的改造一下,现在分别启动两个Tomcat,在页面获取session。如图所示: tomcat2的session: tomcat1的session:    根据上图发现,每个tomcat取到的session不一样。
1320 0
|
负载均衡 算法 应用服务中间件
nginx笔记3-负载均衡算法
1.nginx测试:先从官网下载nginx 官网网址为:http://nginx.org/  然后找到stable version的版本下载,因为这版本是最稳定的,不要去下载最新,因为不稳定,如下图: 下载解压后即可 这里还要对解压后的nginx的conf目录下的nginx.conf配置如下图: 上图中的proxy_pass http://test-service;意思是只有test-service下面的tomcat才能通过我的反向代理。
1086 0