Keepalived+LVS搭建高可用负载均衡

本文涉及的产品
应用型负载均衡 ALB,每月750个小时 15LCU
传统型负载均衡 CLB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
简介: Keepalived+LVS搭建高可用负载均衡

keepalived原理

VRRP (Virtual Router Redundancy Protocol,虚拟路由器冗余协议): 在现实的网络环境中,主机之间的通信都是通过配置静态路由(默认网关)完成的, 而主机之间的路由器一旦出现故障,通信就会失败,

因此,在这种通信模式中,路由器就成了一个单点瓶颈,为了解决这个问题,就引入了 VRRP 协议。

VRRP 可以将两台或多台物理路由器设备虚拟成一个虚拟路由器,每个虚拟路由器都有一个唯一标识,称为 VRID,一个 VRID 与一组 IP 地址构成了一个虚拟路由器。

这个虚拟路由器通过虚拟IP(一个或多个)对外提供服务。而在虚拟路由器内部,同一时间只有一台物理路由器对外提供服务,这台物理路由器被称为主路由器(处于 MASTER 角色)。

而其他物理路由器不拥有对外的虚拟 IP,也不提供对外网络功能,仅仅接收 MASTER 的 VRRP 状态通告信息,这些路由器被统称为备份路由器(处于 BACKUP 角色)。

当主路由器失效时,处于 BACKUP 角色的备份路由器将重新进行选举,产生一个新的主路由器进入 MASTER 角色继续提供对外服务,整个切换过程对用户来说完全透明。

keepalive使用场景

  • LVS和keepalived可以说是天然的集成, 因为LVS已经集成到linux内核系统中,LVS+keepalived的集成,,只需要在keepalived的配置文件中增加配置就可以;
  • keepalive提供了主从切换的功能, 主从之间有心跳检测, 如果发现主从挂掉, keepalived会自动进行主从的切换;
  • 单体架构中, 我们最常使用lvs+keepalived的功能。

keepalive运行原理

keepalived 通过选举(看服务器设置的权重)挑选出一台热备服务器做 MASTER 机器,MASTER 机器会被分配到一个指定的虚拟 ip,即VIP,外部程序可通过该 VIP 访问这台服务器。

如果这台服务器出现故障(断网,重启,或者本机器上的 keepalived crash 等),keepalived 会从其他的备份机器上重选(还是看服务器设置的权重)一台机器做 MASTER 并分配同样的虚拟 IP,充当前一台 MASTER 的角色。

权重越高,备用机器被拉起来的占比就越大,一般的主备就可以满足我们的需求。

keepalive选举策略

选举策略是根据 VRRP 协议,完全按照权重大小,权重最大的是 MASTER 机器,下面几种情况会触发选举:

  • keepalived 启动的时候
  • master 服务器出现故障(断网,重启,或者本机器上的 keepalived crash 等,而本机器上其他应用程序 crash 不算)
  • 有新的备份服务器加入且权重最大

keepalive状态监控和检测

Keepalived 工作在 TCP/IP 参考模型的第三、第四和第五层,也就是网络层、传输层和应用层。根据 TCP/IP 参考模型各层所能实现的功能,Keepalived运行机制如下:

  • 在网络层,运行着四个重要的协议:互连网协议 IP、互连网控制报文协议 ICMP、地址转换协议 ARP 以及反向地址转换协议 RARP。
            Keepalived 在网络层采 用的最常见的工作方式是通过ICMP协议向服务器集群中的每个节点发送一个 ICMP 的数据包(类似于 ping 实现的功能),
    如果某个节点没有返回响应数据包,那么 就认为此节点发生了故障,Keepalived 将报告此节点失效,并从服务器集群中剔除故障节点。
  • 在传输层,提供了两个主要的协议:传输控制协议 TCP 和用户数据协议 UDP。传输控制协议 TCP 可以提供可靠的数据传输服务,IP 地址和端口,代表一个 TCP 连接的 一个连接端。
    要获得 TCP 服务,须在发送机的一个端口上和接收机的一个端口上建立连接,而 Keepalived 在传输层就是利用 TCP 协议的端口连接和扫描技术来 判断集群节点是否正常的。
    比如,对于常见的 Web 服务默认的 80 端口、SSH 服务默认的 22 端口等,Keepalived 一旦在传输层探测到这些端口没有响应数据返回, 就认为这些端口发生异常,然后强制将此端口对应的节点从服务器集群组中移除。
  • 在应用层,可以运行 FTP、TELNET、SMTP、DNS 等各种不同类型的高层协议,Keepalived 的运行方式也更加全面化和复杂化,用户可以通过自定义 Keepalived 的工作方式,
    例如用户可以通过编写程序来运行 Keepalived,而 Keepalived 将根据用户的设定检测各种程序或服务是否允许正常,如果 Keepalived 的检测结果 与用户设定不一致时,Keepalived 将把对应的服务从服务器中移除。

什么是LVS

LVS 是一个开源的软件,可以实现 LINUX 平台下的简单负载均衡。 LVS 是 Linux Virtual Server 的缩写,意思是 Linux 虚拟服务器。

LVS 已经集成到Linux内核系统中,ipvsadm 是 LVS 的命令行管理工具。目前有三种 IP 负载均衡技术( VS/NAT 、 VS/TUN 和 VS/DR );八种调度算法( rr,wrr,lc,wlc,lblc,lblcr,dh,sh )

LVS 的组成

  • 负载均衡层(load balance): 位于整个集群的最前端,由一台或多台负载调度器(Director Server)组成。 其上安装了 LVS 的核心模块 IPVS,负责把用户请求分发给服务器群组层的应用服务器(Real Server),
    同时还有监控模块(Ldirectord),用于监测各个 Real Server 服务的健康情况,当 real server 不可用时, 将其从路由表中剔除,待主机恢复后重新加入。
  • 服务器群组(Server Array): 由一组实际运行应用服务的主机组成。每个 Real Server 之间通过高速 LAN 相连。
  • 数据共享存储(Shared Storage): 为所有 Real Server 提供共享存储空间和内容一致性的存储区域,一般由磁盘阵列设备组成。

IPVS 简单介绍

IPVS: 安装于 Director Server 上,并在 Director Server 上虚拟出一个 VIP(Virtual IP)。 用户的访问请求通过 VIP 到达负载调度器,然后由负载调度器从 Real Server 列表中选取一个服务节点响应用户的请求。

IPVS 转发请求的 3 种方式:

  • VS/NAT(Virtual Server via Network Address Translation): 当用户请求到达调度器时,调度器将请求报文的目标地址和端口地址改写 成选定的 Real Server 的相应地址和端口,并将请求报文发送给选定的 Real Server。当 Real Server 返回数据时,还需要再次将报文的源地址和端口更改为 VIP 和相应的端口后,再发送给用户。 因为请求和响应报文都需要经过 Director Server 重写,所以当高并发时,调度器的处理能力将会成为瓶颈。
  • VS/TUN (Virtual Server via IP Tunneling): 也就是 IP 隧道技术实现虚拟服务器。调度器采用 IP 隧道技术将用户请求转发到某个 Real Server,而这个 Real Server 将直接响应用户的请求,不再经过前端调度器,此外,对 Real Server 的地域位置没有要求,可以和 Director Server 位于同一个网段,也可以是独立的一个网络。由于在 TUN 方式中,调度器将只处理用户的报文请求,集群系统的吞吐量大大提高。
  • VS/DR(Virtual Server via Direct Routing): 也就是用直接路由技术实现虚拟服务器。VS/DR 通过改写请求报文的 MAC 地址,将请求发送到 Real Server,而 Real Server 将响应直接返回给客户,免去了 VS/TUN 中的 IP 隧道开销。这种方式是三种负载调度机制中性能最高、最好的,但是必须要求 Director Server 与 Real Server 都有一块网卡连在同一物理网段上。

IPVS 的负载调度算法:

上面我们谈到,负载调度器是根据各个服务器的负载情况,动态地选择一台 Real Server 响应用户请求,那么动态选择是如何实现呢,其实也就是我们这里要说的负载调度算法,

根据不同的网络服务需求和服务器配置,IPVS 实现了如下八种负载调度算法,这里我们详细讲述最常用的四种调度算法,剩余的四种调度算法请参考其它资料。

  • 轮询调度(Round Robin)
    “轮询”调度也叫1:1调度,调度器通过“轮询”调度算法将外部用户请求按顺序1:1的分配到集群中的每个 Real Server 上,这种算法平等地对待每一台 Real Server, 而不管服务器上实际的负载状况和连接状态。
  • 加权轮询调度(Weighted Round Robin)
    “加权轮询”调度算法是根据 Real Server 的不同处理能力来调度访问请求。可以对每台 Real Server 设置不同的调度权值,对于性能相对较好的 Real Server 可以设置较高的权值,而对于处理能力较弱的 Real Server,可以设置较低的权值,这样保证了处理能力强的服务器处理更多的访问流量,充分合理的利用了服务器资源。 同时,调度器还可以自动查询 Real Server 的负载情况,并动态地调整其权值。
  • 最少链接调度(Least Connections)
    “最少连接”调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用“最小连接”调度算法可以较好地均衡负载。
  • 加权最少链接调度(Weighted Least Connections)
    “加权最少链接调度”,每个服务节点可以用相应的权值表示其处理能力,而系统管理员可以动态的设置相应的权值,缺省权值为1,加权最小连接调度在分配新连接请求时尽可能使服务节点的已建立连接数和其权值成正比。
  • 其它四种调度算法分别为:
  • 基于局部性的最少链接(Locality-Based Least Connections)
  • 带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)
  • 目标地址散列(Destination Hashing)
  • 源地址散列(Source Hashing)

Keepalived+LVS搭建高可用负载均衡

环境

  • 软件环境:CentOS7、Keepalived1.3.5、ipvsadm1.27
  • Keepalived+Lvs(MASTER):172.17.13.120
  • Keepalived+Lvs(BACKUP):172.17.13.123
  • Real Server1:172.17.13.142:80 Nginx
  • Real Server2:172.17.13.173:80 Nginx
  • VIP:172.17.13.252

架构图

  • 安装相关软件
yum install ipvsadm keepalived -y
  • 配置 Keepalived+Lvs
    Keepalived+Lvs(MASTER)节点
vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs{
    notification_email{ 
        ******@163.com                 #报警接收人,多个写多行(需要开启本机的sendmail服务) 
    } 
    notification_email_from ******@163.com     #报警发件人 
    smtp_server smtp.163.com               #发送email时使用的smtp服务器地址 
    smtp_connect_timeout 30               #smtp超时时间 
    router_id LVS1                    #表示运行keepalived服务器的一个标识,发邮件时显示在邮件主题的信息
}
# Keepalived的VRRR 实例配置
vrrp_instance VI_1 {
    state MASTER            # 如果使用主/备,另外一台机器需要设置为BACKUP
    interface enp1s0        # 当前 IP 对应的网络接口,通过 ifconfig 查询
    virtual_router_id 62    # 虚拟路由 ID(0-255),在一个 VRRP 实例中主备服务器 ID 必须一样(主备的虚拟机路由ID必须一致)
    priority 100            # 优先级值设定:MASTER 要比 BACKUP 的值大
    advert_int 1            # VRRP Multicast广播周期秒数:单位秒,主备要一致
    authentication {        # 认证机制,主从节点保持一致即可
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        172.17.13.252       # VIP,可配置多个(换行填写)
    }
}
# 虚拟服务器(LVS)的配置,主要实现LVS的ip包转发功能
virtual_server 172.17.13.252 80  {
    delay_loop 3                    # 设置健康状态检查时间(每隔3秒查询Real Server状态)
    lb_algo rr                      # 调度算法,这里用了 rr 轮询算法
    lb_kind DR                      # 转发请求方式,这里用了 Direct Route 模式
    persistence_timeout 50          # 持久连接超时时间(会话保持时间),这段时间内,同一ip发起的请求将被转发到同一个Real Server
    protocol TCP            # 用TCP协议检查Real Server状态
    # 第一台Real Server物理环境
    real_server 172.17.13.173 80 {
        weight 1            # 权重
        TCP_CHECK {          # 健康检查
            connect_timeout 10    # 无响应超时时间,单位是秒
            retry 3             # 重试次数(旧版本为 nb_get_retry )
            delay_before_retry 3   # 重试间隔 
            connect_port 80         # 端口
        }
    }
    # 第二台Real Server物理环境
    real_server 172.17.13.142 80 {
        weight 1
        TCP_CHECK {
            connect_timeout 10
            retry 3
            delay_before_retry 3
            connect_port 80
        }
    }
}

健康检查有多种检查方式,常见的有,HTTP_GET,SSL_GET,TCP_CHECK,SMTP_CHECK,MISC_CHECK

  • Keepalived+Lvs(BACKUP)节点

和主基本一样,只需要修改几处

state  BACKUP
priority  99
router_id  LVS2
  • 在两台 Keepalived+Lvs 服务器上开启路由转发功能
# vim/etc/sysctl.conf
net.ipv4.ip_forward= 1
# sysctl-p
  • 配置完成后,分别重启 Keepalived 服务
systemctl restart keepalived
  • 查看路由配置
ipvsadm
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  localhost:http wrr persistent 50
  -> localhost:http               Route   1      0          0
  -> localhost:http               Route   1      0          0
  • 配置 Real Server
    1、在 Real Server 2台服务器的网卡上配置 lo 为 VIP。配置脚本如下:
#!/bin/bash 
SNS_VIP=172.17.13.252
case "$1" in
start)
       ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP     #配置虚拟IP地址(临时添加)
       /sbin/route add -host $SNS_VIP dev lo:0                    #配置路由(临时添加)
       echo "0" > /proc/sys/net/ipv4/ip_forward
       echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore                #修改内核参数
       echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce              #修改内核参数
       echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore               #修改内核参数
       echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce              #修改内核参数
       sysctl -p >/dev/null 2>&1
       echo "RealServer Start OK"
       ;;
stop)
       ifconfig lo:0 down
       route del $SNS_VIP >/dev/null 2>&1
       echo "1" > /proc/sys/net/ipv4/ip_forward
       echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
       echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
       echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
       echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
       echo "RealServer Stoped"
       ;;
*)
       echo "Usage: $0 {start|stop}"
       exit 1
esac
exit 0
  • 2、本地创建完后,并执行
chmod a+x lvs-web.sh
./lvs-web.sh start
  • 配置完成后,通过 VIP 就可以访问到 Real Server 上的服务了

测试验证

配置完双机热备后,我们就可以测试下,节点发生故障后以及 LB 切换失败后,能否保证服务的 HA。

1、在 LB 的主节点上输入 ip a,可以看到 VIP 目前已经正确配置在网卡上。

2、输入 watch ipvsadm -Ln --stats 可实时看到负载均衡的结果,正常。

3、接下面我们试着访问一下 VIP

while true ; do curl 172.17.13.252; sleep 1;done

看到服务可正常轮询:

4、此时手动停止一个 RS,再次访问 VIP,LVS 会自动剔除无法访问的服务,重启后,服务会被自动添加。

5、如果此时,手动停止 MASTER 上的 Keepalived,模拟 LB MASTER 节点挂了,VIP 会自动飘到 BACKUP LB 上。

6、此时,如果重启 MASTER 后,VIP 又会飘回去。MASTER 的优先级高于 BACKUP,从而实现 HA。

命令说明

# 查看日志信息:
tail-f /var/log/messages
# 查看 LVS 当前设置:
watch ipvsadm -Ln
# 查看转发情况:
watch ipvsadm -Lnc
# 清除路由设置:
ipvsadm -C


相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
3天前
|
负载均衡 算法 Linux
LVS+Keepalived:实现高效软负载均衡的利器
本文介绍了如何使用LVS(Linux Virtual Server)和Keepalived搭建高可用负载均衡集群。LVS通过不同调度算法将请求转发给后端服务器,而Keepalived基于VRRP协议实现服务高可用,避免IP单点故障。具体步骤包括环境准备、安装配置ipvsadm和Keepalived、启动服务及测试。文中还详细解释了配置文件中的关键参数,并提供了故障转移测试方法。最后,文章简要对比了软件、硬件和云负载均衡方案的特点,帮助读者选择合适的负载均衡策略。
47 4
|
3月前
|
运维 负载均衡 网络协议
LVS+Keepalived 负载均衡
LVS+Keepalived 负载均衡
100 8
LVS+Keepalived 负载均衡
|
3月前
|
域名解析 运维 负载均衡
LVS+Keepalived 负载均衡(二)28-1
【8月更文挑战第28天】LVS+Keepalived 负载均衡 配置 LVS VIP
76 5
|
4月前
|
负载均衡 网络协议
使用LVS搭建集群实现负载均衡(二)安装使用
【8月更文挑战第8天】使用LVS搭建集群实现负载均衡(二)安装使用
82 5
|
4月前
|
缓存 负载均衡 算法
在Linux中, LVS负载均衡有哪些策略?
在Linux中, LVS负载均衡有哪些策略?
|
25天前
|
负载均衡 前端开发 应用服务中间件
负载均衡指南:Nginx与HAProxy的配置与优化
负载均衡指南:Nginx与HAProxy的配置与优化
44 3
|
6月前
|
缓存 负载均衡 算法
解读 Nginx:构建高效反向代理和负载均衡的秘密
解读 Nginx:构建高效反向代理和负载均衡的秘密
134 2
|
5月前
|
负载均衡 算法 应用服务中间件
nginx自定义负载均衡及根据cpu运行自定义负载均衡
nginx自定义负载均衡及根据cpu运行自定义负载均衡
105 1
|
5月前
|
运维 负载均衡 算法
SLB与NGINX的异同是什么
SLB与NGINX的异同是什么
553 2
|
7月前
|
负载均衡 应用服务中间件 nginx
解决nginx配置负载均衡时invalid host in upstream报错
在Windows环境下,配置Nginx 1.11.5进行负载均衡时遇到问题,服务无法启动。错误日志显示“invalid host in upstream”。检查发现上游服务器列表中,192.168.29.128的主机地址无效。负载均衡配置中,两个服务器地址前误加了"http://"。修正方法是删除上游服务器列表和proxy_pass中的"http://"。问题解决后,Nginx服务应能正常启动。
575 4
解决nginx配置负载均衡时invalid host in upstream报错