LVS+Keepalived高可用群集

简介: LVS+Keepalived高可用群集

一、LVS+Keepalived高可用群集


1、LVS含义

Linux虚拟服务器(Linux Virtual Server)

LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址喝内容请求分发的负载均衡提出了一种高效的解决方法


2、Keepalived

支持故障自动切换

支持节点健康状态检查

判断LVS负载调度器、节点服务器的可用性,当master主机出现故障及时切换到backup节点保证业务正常,当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。

3、Keepalived实现原理解析

keepalived采用VRRP热备份协议实现Linux服务器的多机热备功能

VRRP(虚拟路由冗余协议)是针对路由器的一种备份解决方案。

由多台路由器组成一个热备份组,通过共用的虚拟IP地址对外提供服务

每个热备组织同时只有一台主路由器提供服务,其他路由器处于冗余状态

若当前在线的路由器失效,则其他路由器会根据设置的优先级自动接替虚拟IP地址,继续提供服务

4、 vrrp虚拟路由冗余协议

vrrp会把多台路由组成一个虚拟路由组vrid,vrrp会生成一个虚拟路由(包含虚拟ip和虚拟mac,局域网内用户不关心哪个是主哪个是备,他们只用虚拟路由器的虚拟ip作为他们的网关)实际上虚拟ip是承载在master路由器,也就是说实际的数据通过master进行转发backup是通过优先级来决定哪个是master路由,优先级最大的那台就是master,backup只是用来监听master定时发送的vrrp报文,如果超时未收到master发来的vrrp报文backup就会抢占master虚拟ip也会飘移到backup上


5、keepalived 体系主要模块及其作用

keepalived体系架构中主要有三个模块,分别是core、check和vrrp。


core模块:为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。

vrrp模块:是来实现VRRP协议的。

check模块:负责健康检查,常见的方式有端口检查及URL检查。

二、keepalived脑裂及解决办法

1、keepalived脑裂

在高可用(HA)系统中,当联系2个节点的“心跳线”断开时,本来为一整体、动作协调的HA系统,就分裂成为2个独立的个体。由于相互失去了联系,都以为是对方出了故障。两个节点上的HA软件像“裂脑人”一样,争抢“共享资源”、争起“应用服务”,就会发生严重后果——或者共享资源被瓜分、2边“服务”都起不来了;或者2边“服务”都起来了,但同时读写“共享存储”,导致数据损坏(常见如数据库轮询着的联机日志出错)。


2、脑裂的原因

高可用服务器对之间心跳线链路发生故障,导致无法正常通信。如心跳线坏了(包括断了,老化)。

因网卡及相关驱动坏了,ip配置及冲突问题(网卡直连)。

因心跳线间连接的设备故障(网卡及交换机)。

因仲裁的机器出问题(采用仲裁的方案)。

高可用服务器上开启了 iptables防火墙阻挡了心跳消息传输。

Keepalived配置里同一 VRRP实例如果 virtual_router_id两端参数配置不一致也会导致裂脑问题发生。

vrrp实例名字不一致、优先级一致。

3、应对策略

添加冗余的心跳线,例如:双线条线(心跳线也HA),尽量减少“裂脑”发生几率

启用磁盘锁。正在服务一方锁住共享磁盘,“裂脑”发生时,让对方完全“抢不走”共享磁盘资源。但使用锁磁盘也会有一个不小的问题,如果占用共享盘的一方不主动“解锁”,另一方就永远得不到共享磁盘。现实中假如服务节点突然死机或崩溃,就不可能执行解锁命令。后备节点也就接管不了共享资源和应用服务。于是有人在HA中设计了“智能”锁。即:正在服务的一方只在发现心跳线全部断开(察觉不到对端)时才启用磁盘锁。平时就不上锁了。

设置仲裁机制。例如设置参考IP(如网关IP),当心跳线完全断开时,2个节点都各自ping一下参考IP,不通则表明断点就出在本端。不仅“心跳”、还兼对外“服务”的本端网络链路断了,即使启动(或继续)应用服务也没有用了,那就主动放弃竞争,让能够ping通参考IP的一端去起服务。更保险一些,ping不通参考IP的一方干脆就自我重启,以彻底释放有可能还占用着的那些共享资源。

利用脚本检测、报警。

vim check_keepalived.sh
#!/bin/bash
$ip=192.168.233.9
while true
do
if [ `ip a show ens33 |grep $ip|wc -l` -ne 0 ]
then    echo "keepalived is error!"
else    echo "keepalived is OK !"
fi
done


三、LVS+Keepalived 高可用群集部署


1、环境准备

主机 操作系统 IP地址 软件/安装包/工具
主负载调度器(Director1) CentOS7 ens33:192.168.80.21 ipvsadm、keepalived
备负载调度器(Director2) CentOS7 ens33:192.168.80.3 ipvsadm、keepalived
Web节点服务器1 CentOS7 ens33:192.168.80.5、lo:0 (VIP):192.168.80.188 rpcbind、nfs-utils、httpd
Web节点服务器2 CentOS7 ens33:192.168.80.8、lo:0 (VIP):192.168.80.188 rpcbind、nfs-utils、httpd
NFS服务器 CentOS7 192.168.80.10 rpcbind、nfs-utils
客户机 Windows10 192.168.80.199


2.配置负载调度器(主、备相同) (192.168.10.14、192.168.10.15)

systemctl stop firewalld.service
setenforce 0


yum -y install ipvsadm keepalived
modprobe ip_vs
cat /proc/net/ip_vs



(1)配置keeplived(主、备DR 服务器上都要设置)


cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak
vim keepalived.conf
......
global_defs {      #定义全局参数
--10行--修改,邮件服务指向本地
  smtp_server 127.0.0.1
--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
  router_id LVS_01
--14行--注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接
  #vrrp_strict
}
vrrp_instance VI_1 {    #定义VRRP热备实例参数
--20行--修改,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
--21行--修改,指定承载vip地址的物理接口
    interface ens33
--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致 
    virtual_router_id 10
  #nopreempt  #如果设置非抢占模式,两个节点state必须为bakcup,并加上配置 nopreempt
--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
    priority 100
    advert_int 1      #通告间隔秒数(心跳频率)
    authentication {    #定义认证信息,每个热备组保持一致
  auth_type PASS    #认证类型
--27行--修改,指定验证密码,主备服务器保持一致
        auth_pass abc123
    }
    virtual_ipaddress {    #指定群集vip地址
        192.168.10.188
    }
}
--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.10.188 80 {
    delay_loop 6      #健康检查的间隔时间(秒)
    lb_algo rr      #指定调度算法,轮询(rr)
--39行--修改,指定群集工作模式,直接路由(DR)
    lb_kind DR
    persistence_timeout 0   #连接保持时间(秒)
    protocol TCP      #应用服务采用的是 TCP协议
--43行--修改,指定第一个Web节点的地址、端口
    real_server 192.168.10.16 80 {
        weight 1      #节点的权重
--45行--删除,添加以下健康检查方式  
        TCP_CHECK {
    connect_port 80   #添加检查的目标端口
    connect_timeout 3  #添加连接超时(秒)
    nb_get_retry 3    #添加重试次数
    delay_before_retry 3  #添加重试间隔
  }
  }
  real_server 192.168.10.17 80 {  #添加第二个 Web节点的地址、端口
        weight 1
        TCP_CHECK {
    connect_port 80
    connect_timeout 3
    nb_get_retry 3
    delay_before_retry 3
  }
  }
##删除后面多余的配置##
}




192.168.10.14和15都需要配置vip(虚拟IP)


vim /etc/sysconfig/network-scripts/ifcfg-ens33:0
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.10.188
NETMASK=255.255.255.255
重启网卡 systemctl restart network
ifup  ens33:0



systemctl start keepalived

ip addr


systemctl start keepalived

ip addr #查看虚拟网卡vip


(2)启动 ipvsadm 服务

–192.168.10.14—


ipvsadm-save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm


ipvsadm -C ##清空规则

ipvsadm -A -t 192.168.10.188:80 -s rr

ipvsadm -a -t 192.168.10.188:80 -r 192.168.10.16:80 -g

ipvsadm -a -t 192.168.10.188:80 -r 192.168.10.17:80 -g


ipvsadm -ln

#如没有VIP 的分发策略,则重启 keepalived 服务,systemctl restart keepalived


–192.168.10.15—

ipvsadm-save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm


ipvsadm -ln



(3)调整 proc 响应参数,关闭Linux 内核的重定向参数响应

vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
sysctl -p



3.配置节点服务器

systemctl stop firewalld
setenforce 0
yum -y install httpd
systemctl start httpd
--192.168.10.16---
echo 'this is kgc web!' > /var/www/html/index.html
--192.168.10.17---
echo 'this is benet web!' > /var/www/html/index.html
vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.10.188
NETMASK=255.255.255.255
service network restart 或 systemctl restart network
ifup lo:0
ifconfig lo:0
route add -host 192.168.10.188 dev lo:0
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
sysctl -p



4.测试验证

在客户端访问 http://192.168.10.188/

再在主服务器关闭 keepalived 服务后再测试, systemctl stop keepalived

将主调度服务器的keepalived服务关闭,测试备调度服务器



相关文章
|
5月前
|
负载均衡 应用服务中间件 Linux
Nginx系列教程(14) - LVS+KeepAlived+Nginx实现高性能负载均衡集群
Nginx系列教程(14) - LVS+KeepAlived+Nginx实现高性能负载均衡集群
186 0
|
5天前
|
负载均衡 监控 Linux
CentOS6.5高可用集群LVS+Keepalived(DR模式)
CentOS6.5高可用集群LVS+Keepalived(DR模式)
|
7月前
|
存储 负载均衡 应用服务中间件
LVS负载均衡群集——NAT模式实操
LVS负载均衡群集——NAT模式实操
210 0
|
4月前
|
负载均衡 监控 调度
Keepalived+Lvs(dr)调度器主备配置小实验
Keepalived和LVS(Linux Virtual Server)是两个常用的开源软件,通常结合使用以提供高可用性和负载均衡的解决方案。 Keepalived是一种用于实现高可用性的软件,它可以监控服务器的健康状态,并在主服务器出现故障时自动切换到备份服务器。
98 2
|
4月前
|
负载均衡 网络协议 Linux
小白带你学习linux的keepalived+lvs和keepalived双机热备(三十七)
小白带你学习linux的keepalived+lvs和keepalived双机热备(三十七)
77 0
|
5月前
|
负载均衡 算法 网络协议
Keepalived+LVS搭建高可用负载均衡
Keepalived+LVS搭建高可用负载均衡
186 1
|
6月前
|
负载均衡 应用服务中间件 nginx
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
71分布式电商项目 - nginx高可用以及lvs+nginx负载均衡(资料)
41 0
|
7月前
|
负载均衡 监控 Linux
LVS + keepalived
LVS + keepalived
66 1
|
7月前
|
存储 负载均衡 网络协议
LVS负载均衡群集—DR直接路由
LVS负载均衡群集—DR直接路由
66 0
|
6月前
|
负载均衡 应用服务中间件 Linux
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)