双主模型高可用负载均衡集群的实现(keepalived+lvs-dr)

本文涉及的产品
应用型负载均衡 ALB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
传统型负载均衡 CLB,每月750个小时 15LCU
简介:

 一、拓扑图

wKiom1lYXyXjsm_NAAC0uSYuwXI603.gif

 二、环境准备

两台负载均衡调度器,两台web服务器。

调度器A环境:

VS:一张网卡

DIP:192.168.0.7/24

VIP(主):192.168.0.200

VIP(备):192.168.0.201

软件包:yum install -y keepalived ipvsadm nginx(作用:sorry-server服务)


调度器B环境:

VS:一张网卡

DIP:192.168.0.8/24

VIP(主):192.168.0.201

VIP(备):192.168.0.200

软件包:yum install -y keepalived ipvsadm nginx(作用:sorry-server服务)


web服务器A环境:

RS1:192.168.0.3

lo:0:192.168.0.200

lo:1:192.168.0.201

软件包:yum install -y httpd


web服务器B环境:

RS1:192.168.0.4

lo:0:192.168.0.200

lo:1:192.168.0.201

软件包:yum install -y httpd


 三、配置

调度器A配置

主要操作:ip配置,时间同步、hosts文件更改,修改主机名(确保主从节点能够通信)、keepalived.conf配置文件更改,通知脚本配置(两个脚本),ipvsadm规则查看

ip配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[root@node1keepalived] # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
     link /loopback  00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1 /8  scope host lo
        valid_lft forever preferred_lft forever
     inet6 ::1 /128  scope host 
        valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
     link /ether  00:0c:29:0c:d2:06 brd ff:ff:ff:ff:ff:ff
     inet 192.168.0.7 /24  brd 192.168.0.255 scope global ens33
        valid_lft forever preferred_lft forever
     inet 192.168.0.200 /24  scope global secondary ens33:1
        valid_lft forever preferred_lft forever
     inet6 fe80::20c:29ff:fe0c:d206 /64  scope link 
        valid_lft forever preferred_lft forever

时间同步 

1
ntpdate ntp-server-ip  #时间服务器的ip

hosts文件

1
2
3
4
5
[root@node1 keepalived] # cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4 node1
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6 node1
192.168.0.8 node2
192.168.0.7 node1

主机名修改

1
hostnamectl  set - hostname  node1

keepalived.conf配置文件更改

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
[root@localhost keepalived] # cat keepalived.conf
! Configuration File  for  keepalived
global_defs {
    notification_email {
      root@localhost
    }
    notification_email_from keepalived@localhost
    smtp_server 127.0.0.1 
    smtp_connect_timeout 10
    router_id node1
vrrp_mcast_group4 224.0.0.223
}
vrrp_instance VI_1 {
     state MASTER
     interface ens33
     virtual_router_id 51
     priority 110
     advert_int 1
     authentication {
         auth_type PASS
         auth_pass JzvnmfkY 
     }
     virtual_ipaddress {
         192.168.0.200 /24  dev ens33 label ens33:1
     }
notify_master  "/etc/keepalived/notify1.sh master"
notify_backup  "/etc/keepalived/notify1.sh backup"
notify_fault  "/etc/keepalived/notify1.sh fault"
}
virtual_server 192.168.0.200 80 {
     delay_loop 3
     lb_algo wrr
     lb_kind DR
     protocol TCP
     sorry_server 127.0.0.1 80
     real_server 192.168.0.3 80 {
         weight 2
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
     }
     real_server 192.168.0.4 80 {
         weight 1
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
}
}
vrrp_instance VI_2 {
     state BACKUP
     interface ens33
     virtual_router_id 52
     priority 90
     advert_int 1
     authentication {
         auth_type PASS
         auth_pass JzvnmfkY 
     }
     virtual_ipaddress {
         192.168.0.201 /24  dev ens33 label ens33:2
     }
notify_master  "/etc/keepalived/notify2.sh master"
notify_backup  "/etc/keepalived/notify2.sh backup"
notify_fault  "/etc/keepalived/notify2.sh fault"
}
virtual_server 192.168.0.201 80 {
     delay_loop 3
     lb_algo wrr
     lb_kind DR
     protocol TCP
     sorry_server 127.0.0.1 80
     real_server 192.168.0.3 80 {
         weight 1
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
     }
     real_server 192.168.0.4 80 {
         weight 2
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
}
}

通知脚本配置

脚本1

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@node1 keepalived] # cat notify1.sh 
#!/bin/bash
#description: An example of notify script
#
vip=192.168.0.200
contact= 'root@localhost'
notify(){
local  mailsubject= "$(hostname) to be $1:$vip floating"
local  mailbody= "$(date +'%F %T'):vrrp1 transition,$(hostname) changed to be $1"
echo  "$mailbody"  | mail -s  "$mailsubject"  $contact
}
case  $1  in
master)
notify master
;;
backup)
notify backup
;;
fault)
notify fault
;;
*)
echo  "Usage:$(basename $0) {master|backup|fault}"
exit  1
;;
esac

脚本2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@node1 keepalived] # cat notify2.sh 
#!/bin/bash
#description: An example of notify script
#
vip=192.168.0.201
contact= 'root@localhost'
notify(){
local  mailsubject= "$(hostname) to be $1:$vip floating"
local  mailbody= "$(date +'%F %T'):vrrp2 transition,$(hostname) changed to be $1"
echo  "$mailbody"  | mail -s  "$mailsubject"  $contact
}
case  $1  in
master)
notify master
;;
backup)
notify backup
;;
fault)
notify fault
;;
*)
echo  "Usage:$(basename $0) {master|backup|fault}"
exit  1
;;
esac

ipvsadm规则查看

1
2
3
4
5
6
7
8
9
10
[root@node1 keepalived] # ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.200:80 wrr
   -> 192.168.0.3:80               Route   2      0          0         
   -> 192.168.0.4:80               Route   1      0          0         
TCP  192.168.0.201:80 wrr
   -> 192.168.0.3:80               Route   1      0          0         
   -> 192.168.0.4:80               Route   2      0          0

调度器B配置

主要操作:ip配置,时间同步、hosts文件更改,修改主机名(确保主从节点能够通信)、keepalived.conf配置文件更改,通知脚本配置(两个脚本),ipvsadm规则查看

ip配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[root@node2 keepalived] # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
     link /loopback  00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1 /8  scope host lo
        valid_lft forever preferred_lft forever
     inet6 ::1 /128  scope host 
        valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
     link /ether  00:0c:29:3f:e3:9e brd ff:ff:ff:ff:ff:ff
     inet 192.168.0.8 /24  brd 192.168.0.255 scope global ens33
        valid_lft forever preferred_lft forever
     inet 192.168.0.201 /24  scope global secondary ens33:2
        valid_lft forever preferred_lft forever
     inet6 fe80::20c:29ff:fe3f:e39e /64  scope link 
        valid_lft forever preferred_lft forever

时间同步 

1
ntpdate ntp-server-ip


hosts文件更改

1
2
3
4
5
[root@node2 keepalived] # cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4 node2
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6 node2
192.168.0.7 node1
192.168.0.8 node2

        主机名修改       

1
hostnamectl  set - hostname  node2

keepalived.conf配置文件更改

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
[root@localhost keepalived] # cat keepalived.conf 
! Configuration File  for  keepalived
global_defs {
    notification_email {
      root@localhost
    }
    notification_email_from keepalived@localhost
    smtp_server 127.0.0.1 
    smtp_connect_timeout 10
    router_id node2
vrrp_mcast_group4 224.0.0.223
}
vrrp_instance VI_1 {
     state BACKUP
     interface ens33
     virtual_router_id 51
     priority 100
     advert_int 1
     authentication {
         auth_type PASS
         auth_pass JzvnmfkY 
     }
     virtual_ipaddress {
         192.168.0.200 /24  dev ens33 label ens33:1
     }
         notify_master  "/etc/keepalived/notify1.sh master"
         notify_backup  "/etc/keepalived/notify1.sh backup"
         notify_fault  "/etc/keepalived/notify1.sh fault"
}
virtual_server 192.168.0.200 80 {
     delay_loop 3
     lb_algo wrr
     lb_kind DR
     protocol TCP
sorry_server 127.0.0.1 80
     real_server 192.168.0.3 80 {
         weight 2
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
     }
     real_server 192.168.0.4 80 {
         weight 1
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
}
}
vrrp_instance VI_2 {
     state MASTER
     interface ens33
     virtual_router_id 52
     priority 100
     advert_int 1
     authentication {
         auth_type PASS
         auth_pass JzvnmfkY
     }
     virtual_ipaddress {
         192.168.0.201 /24  dev ens33 label ens33:2
     }
         notify_master  "/etc/keepalived/notify2.sh master"
         notify_backup  "/etc/keepalived/notify2.sh backup"
         notify_fault  "/etc/keepalived/notify2.sh fault"
}
virtual_server 192.168.0.201 80 {
     delay_loop 3
     lb_algo wrr
     lb_kind DR
     protocol TCP
sorry_server 127.0.0.1 80
     real_server 192.168.0.3 80 {
         weight 1
         HTTP_GET {
             url {
               path /
               status_code 200
             }
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
     }
     real_server 192.168.0.4 80 {
         weight 2
         HTTP_GET {
             url {
               path /
               status_code 200
             }
             connect_timeout 3
             nb_get_retry 3
             delay_before_retry 3
         }
}
}

通知脚本配置(同调度器A的脚本一致)

脚本1

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@node2 keepalived] # cat notify1.sh 
#!/bin/bash
#description: An example of notify script
#
vip=192.168.0.200
contact= 'root@localhost'
notify(){
local  mailsubject= "$(hostname) to be $1:$vip floating"
local  mailbody= "$(date +'%F %T'):vrrp1 transition,$(hostname) changed to be $1"
echo  "$mailbody"  | mail -s  "$mailsubject"  $contact
}
case  $1  in
master)
notify master
;;
backup)
notify backup
;;
fault)
notify fault
;;
*)
echo  "Usage:$(basename $0) {master|backup|fault}"
exit  1
;;
esac

脚本2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@node2 keepalived] # cat notify2.sh 
#!/bin/bash
#description: An example of notify script
#
vip=192.168.0.201
contact= 'root@localhost'
notify(){
local  mailsubject= "$(hostname) to be $1:$vip floating"
local  mailbody= "$(date +'%F %T'):vrrp2 transition,$(hostname) changed to be $1"
echo  "$mailbody"  | mail -s  "$mailsubject"  $contact
}
case  $1  in
master)
notify master
;;
backup)
notify backup
;;
fault)
notify fault
;;
*)
echo  "Usage:$(basename $0) {master|backup|fault}"
exit  1
;;
esac

web服务器A配置

ip配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
     link /loopback  00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1 /8  scope host lo
        valid_lft forever preferred_lft forever
     inet 192.168.0.201 /32  brd 192.168.0.201 scope global lo:1
        valid_lft forever preferred_lft forever
     inet 192.168.0.200 /32  brd 192.168.0.200 scope global lo:0
        valid_lft forever preferred_lft forever
     inet6 ::1 /128  scope host 
        valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
     link /ether  00:0c:29:ab:50:14 brd ff:ff:ff:ff:ff:ff
     inet 192.168.0.4 /24  brd 192.168.0.255 scope global ens33
        valid_lft forever preferred_lft forever
     inet6 fe80::20c:29ff:feab:5014 /64  scope link 
        valid_lft forever preferred_lft forever

lvs-dr-预配置脚本

脚本1

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@localhost ~] # cat vip200-setrs.sh 
#!/bin/bash
#
vip=192.168.0.200
mask= '255.255.255.255'
case  $1  in
start)
echo  1 >  /proc/sys/net/ipv4/conf/all/arp_ignore
echo  1 >  /proc/sys/net/ipv4/conf/lo/arp_ignore
echo  2 >  /proc/sys/net/ipv4/conf/all/arp_announce
echo  2 >  /proc/sys/net/ipv4/conf/lo/arp_announce
ifconfig  lo:0 $vip netmask $mask broadcast $vip up
route add -host $vip dev lo:0
;;
stop)
ifconfig  lo:0 down
echo  0 >  /proc/sys/net/ipv4/conf/all/arp_ignore
echo  0 >  /proc/sys/net/ipv4/conf/lo/arp_ignore
echo  0 >  /proc/sys/net/ipv4/conf/all/arp_announce
echo  0 >  /proc/sys/net/ipv4/conf/lo/arp_announce
;;
*) 
echo  "Usage $(basename $0) start|stop"
exit  1
;;
esac


脚本2

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@localhost ~] # cat vip201-setrs.sh 
#!/bin/bash
#
vip=192.168.0.201
mask= '255.255.255.255'
case  $1  in
start)
echo  1 >  /proc/sys/net/ipv4/conf/all/arp_ignore
echo  1 >  /proc/sys/net/ipv4/conf/lo/arp_ignore
echo  2 >  /proc/sys/net/ipv4/conf/all/arp_announce
echo  2 >  /proc/sys/net/ipv4/conf/lo/arp_announce
ifconfig  lo:1 $vip netmask $mask broadcast $vip up
route add -host $vip dev lo:1
;;
stop)
ifconfig  lo:1 down
echo  0 >  /proc/sys/net/ipv4/conf/all/arp_ignore
echo  0 >  /proc/sys/net/ipv4/conf/lo/arp_ignore
echo  0 >  /proc/sys/net/ipv4/conf/all/arp_announce
echo  0 >  /proc/sys/net/ipv4/conf/lo/arp_announce
;;
*) 
echo  "Usage $(basename $0) start|stop"
exit  1
;;
esac

web服务器B配置

ip配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[root@localhost ~] # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
     link /loopback  00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1 /8  scope host lo
        valid_lft forever preferred_lft forever
     inet 192.168.0.201 /32  brd 192.168.0.201 scope global lo:1
        valid_lft forever preferred_lft forever
     inet 192.168.0.200 /32  brd 192.168.0.200 scope global lo:0
        valid_lft forever preferred_lft forever
     inet6 ::1 /128  scope host 
        valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
     link /ether  00:0c:29:ab:50:14 brd ff:ff:ff:ff:ff:ff
     inet 192.168.0.4 /24  brd 192.168.0.255 scope global ens33
        valid_lft forever preferred_lft forever
     inet6 fe80::20c:29ff:feab:5014 /64  scope link 
        valid_lft forever preferred_lft forever

lvs-dr-预设脚本

脚本内容同web服务A相同,拷贝过去即可

vip200-setrs.sh  vip201-setrs.sh

    客户端测试

ip配置

[root@localhost ~]# ip a

1
2
3
4
5
6
7
8
9
10
11
12
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
     link /loopback  00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1 /8  scope host lo
        valid_lft forever preferred_lft forever
     inet6 ::1 /128  scope host 
        valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
     link /ether  00:0c:29:d0:37:77 brd ff:ff:ff:ff:ff:ff
     inet 192.168.0.14 /24  brd 192.168.0.255 scope global ens33
        valid_lft forever preferred_lft forever
     inet6 fe80::20c:29ff:fed0:3777 /64  scope link 
        valid_lft forever preferred_lft forever

 curl测试

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
  [root@localhost ~] # for i in {1..10};do curl http://192.168.0.200;done
backend server1
backend server1
backend server2
backend server1
backend server1
backend server2
backend server1
backend server1
backend server2
backend server1
[root@localhost ~] # for i in {1..10};do curl http://192.168.0.201;done
backend server1
backend server2
backend server2
backend server1
backend server2
backend server2
backend server1
backend server2
backend server2
backend server1

 四、健康状态查看以及故障排查参考方式

 方式1:查看keepalived的切换过程

systemctl status keepalived

 方式2:mail命令查看邮件

 方式3:查看web服务器日志

tail /var/log/httpd/access_log 

tail /var/log/httpd/error_log 

五、模拟故障

 1.模拟调度器B故障

调度器B上操作

停止keepalived服务

1
2
3
4
5
6
systemctl stop keepalived
[root@node2 keepalived] # systemctl status keepalived #分析以下信息,VIP2已移除
Jul 02 10:18:53 node2 systemd[1]: Stopping LVS and VRRP High Availability Monitor...
Jul 02 10:18:53 node2 Keepalived_vrrp[50773]: VRRP_Instance(VI_2) sending 0 priority
Jul 02 10:18:53 node2 Keepalived_vrrp[50773]: VRRP_Instance(VI_2) removing protocol VIPs.
Jul 02 10:18:53 node2 systemd[1]: Stopped LVS and VRRP High Availability Monitor.

查看ip

1
2
3
4
5
6
7
8
9
10
11
12
13
[root@node2 keepalived] # ip a           #VIP2移除
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
     link /loopback  00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1 /8  scope host lo
        valid_lft forever preferred_lft forever
     inet6 ::1 /128  scope host 
        valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
     link /ether  00:0c:29:3f:e3:9e brd ff:ff:ff:ff:ff:ff
     inet 192.168.0.8 /24  brd 192.168.0.255 scope global ens33
        valid_lft forever preferred_lft forever
     inet6 fe80::20c:29ff:fe3f:e39e /64  scope link 
        valid_lft forever preferred_lft forever

调度器A操作

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
[root@node1 keepalived] # systemctl status keepalived #分析以下信息,可知VIP漂移到调度A
● keepalived.service - LVS and VRRP High Availability Monitor
    Loaded: loaded ( /usr/lib/systemd/system/keepalived .service; enabled; vendor preset: disabled)
    Active: active (running) since Sun 2017-07-02 10:07:36 CST; 17min ago
   Process: 20019 ExecStart= /usr/sbin/keepalived  $KEEPALIVED_OPTIONS (code=exited, status=0 /SUCCESS )
  Main PID: 20020 (keepalived)
    CGroup:  /system .slice /keepalived .service
            ├─20020  /usr/sbin/keepalived  -D
            ├─20021  /usr/sbin/keepalived  -D
            └─20022  /usr/sbin/keepalived  -D
Jul 02 10:07:37 node1 Keepalived_vrrp[20022]: Opening script  file  /etc/keepalived/notify1 .sh
Jul 02 10:07:37 node1 Keepalived_healthcheckers[20021]: Netlink reflector reports IP 192.168.0.200 added
Jul 02 10:07:42 node1 Keepalived_vrrp[20022]: VRRP_Instance(VI_1) Sending gratuitous ARPs on ens33  for  192.168.0.200
Jul 02 10:18:54 node1 Keepalived_vrrp[20022]: VRRP_Instance(VI_2) Transition to MASTER STATE
Jul 02 10:18:55 node1 Keepalived_vrrp[20022]: VRRP_Instance(VI_2) Entering MASTER STATE
Jul 02 10:18:55 node1 Keepalived_vrrp[20022]: VRRP_Instance(VI_2) setting protocol VIPs.
Jul 02 10:18:55 node1 Keepalived_vrrp[20022]: VRRP_Instance(VI_2) Sending gratuitous ARPs on ens33  for  192.168.0.201
Jul 02 10:18:55 node1 Keepalived_vrrp[20022]: Opening script  file  /etc/keepalived/notify2 .sh
Jul 02 10:18:55 node1 Keepalived_healthcheckers[20021]: Netlink reflector reports IP 192.168.0.201 added
Jul 02 10:19:00 node1 Keepalived_vrrp[20022]: VRRP_Instance(VI_2) Sending gratuitous ARPs on ens33  for  192.168.0.201

查看邮件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
[root@node1 keepalived] # mail        #node1成为VIP192.168.0.201的主节点
Heirloom Mail version 12.5 7 /5/10 .  Type ?  for  help.
"/var/spool/mail/root" : 1 message
>   1 root                  Sun Jul  2 10:18  19 /702    "node1 to be master:192.168.0.201 floating"
& 1  
Message  1:
From root@node1.localdomain  Sun Jul  2 10:18:55 2017
Return-Path: <root@node1.localdomain>
X-Original-To: root@localhost
Delivered-To: root@localhost.localdomain
Date: Sun, 02 Jul 2017 10:18:55 +0800
To: root@localhost.localdomain
Subject: node1 to be master:192.168.0.201 floating
User-Agent: Heirloom mailx 12.5 7 /5/10
Content-Type: text /plain ; charset=us-ascii
From: root@node1.localdomain (root)
Status: RO
2017-07-02 10:18:55:vrrp2 transition,node1 changed to be master

2.模拟web服务器A故障(RS1)

webA上操作

1
[root@localhost ~] # systemctl stop httpd

调度器A上操作

 查看邮件

1
2
3
4
5
6
7
[root@node1 keepalived] # mail #分析以下信息,可知RS1宕机
Heirloom Mail version 12.5 7 /5/10 .  Type ?  for  help.
"/var/spool/mail/root" : 4 messages 2 new
     1 root                  Sun Jul  2 10:18  19 /702    "node1 to be master:192.168.0.201 floating"
     2 root                  Sun Jul  2 10:28  19 /702    "node1 to be backup:192.168.0.201 floating"
>N  3 keepalived@localhost  Sun Jul  2 10:28  17 /642    "[node1] Realserver [192.168.0.3]:80 - DOWN"
  N  4 keepalived@localhost  Sun Jul  2 10:28  17 /642    "[node1] Realserver [192.168.0.3]:80 - DOWN"

客户端请求查看

1
2
[root@localhost ~] # curl http://192.168.0.200 #只能访问到RS2
backend server2

    调度器B上操作

1
2
3
4
5
6
7
[root@node2 keepalived] # mail #分析以下信息,可知RS1宕机
Heirloom Mail version 12.5 7 /5/10 .  Type ?  for  help.
"/var/spool/mail/root" : 4 messages 2 new
     1 root                  Sun Jul  2 10:28  19 /702    "node2 to be backup:192.168.0.200 floating"
     2 root                  Sun Jul  2 10:28  19 /702    "node2 to be master:192.168.0.201 floating"
>N  3 keepalived@localhost  Sun Jul  2 10:28  17 /642    "[node2] Realserver [192.168.0.3]:80 - DOWN"
  N  4 keepalived@localhost  Sun Jul  2 10:28  17 /642    "[node2] Realserver [192.168.0.3]:80 - DOWN"

    3.模拟web服务双机故障

     RS1和RS2停止web服务

     调度器A上操作  

    查看邮件                #分析以下信息,可知双机宕机

1
2
3
4
5
6
7
8
9
     [root@node1 keepalived] # mail
Heirloom Mail version 12.5 7 /5/10 .  Type ?  for  help.
"/var/spool/mail/root" : 6 messages 2 new
     1 root                  Sun Jul  2 10:18  19 /702    "node1 to be master:192.168.0.201 floating"
     2 root                  Sun Jul  2 10:28  19 /702    "node1 to be backup:192.168.0.201 floating"
     3 keepalived@localhost  Sun Jul  2 10:28  18 /653    "[node1] Realserver [192.168.0.3]:80 - DOWN"
     4 keepalived@localhost  Sun Jul  2 10:28  18 /653    "[node1] Realserver [192.168.0.3]:80 - DOWN"
>N  5 keepalived@localhost  Sun Jul  2 10:36  17 /642    "[node1] Realserver [192.168.0.4]:80 - DOWN"
  N  6 keepalived@localhost  Sun Jul  2 10:36  17 /642    "[node1] Realserver [192.168.0.4]:80 - DOWN"

查看keepalived状态

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
[root@node1 keepalived] # systemctl status keepalived    #分析以下信息,双机宕机,启动sorry服务器  
● keepalived.service - LVS and VRRP High Availability Monitor
    Loaded: loaded ( /usr/lib/systemd/system/keepalived .service; enabled; vendor preset: disabled)
    Active: active (running) since Sun 2017-07-02 10:07:36 CST; 30min ago
   Process: 20019 ExecStart= /usr/sbin/keepalived  $KEEPALIVED_OPTIONS (code=exited, status=0 /SUCCESS )
  Main PID: 20020 (keepalived)
    CGroup:  /system .slice /keepalived .service
            ├─20020  /usr/sbin/keepalived  -D
            ├─20021  /usr/sbin/keepalived  -D
            └─20022  /usr/sbin/keepalived  -D
Jul 02 10:36:31 node1 Keepalived_healthcheckers[20021]: Removing alive servers from the pool  for  VS [192.168.0.200]:80
Jul 02 10:36:31 node1 Keepalived_healthcheckers[20021]: Remote SMTP server [127.0.0.1]:25 connected.
Jul 02 10:36:31 node1 Keepalived_healthcheckers[20021]: SMTP alert successfully sent.
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: Error connecting server [192.168.0.4]:80.
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: Removing service [192.168.0.4]:80 from VS [192.168.0.201]:80
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: Lost quorum 1-0=1 > 0  for  VS [192.168.0.201]:80
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: Adding sorry server [127.0.0.1]:80 to VS [192.168.0.201]:80
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: Removing alive servers from the pool  for  VS [192.168.0.201]:80
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: Remote SMTP server [127.0.0.1]:25 connected.
Jul 02 10:36:32 node1 Keepalived_healthcheckers[20021]: SMTP alert successfully sent.

客户端请求

1
2
3
4
[root@localhost ~] # curl http://192.168.0.201        #请求至sorry服务器的web页面
sorry server
[root@localhost ~] # curl http://192.168.0.200
sorry server




本文转自 PowerMichael 51CTO博客,原文链接:http://blog.51cto.com/huwho/1943778,如需转载请自行联系原作者
相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
3月前
|
运维 负载均衡 网络协议
LVS+Keepalived 负载均衡
LVS+Keepalived 负载均衡
82 8
LVS+Keepalived 负载均衡
|
3月前
|
域名解析 运维 负载均衡
LVS+Keepalived 负载均衡(二)28-1
【8月更文挑战第28天】LVS+Keepalived 负载均衡 配置 LVS VIP
68 5
|
4月前
|
负载均衡 算法 应用服务中间件
负载均衡技术在Web服务器集群中的应用
【8月更文第28天】随着互联网的发展和用户对Web服务需求的增长,单台服务器很难满足大规模访问的需求。为了提高系统的稳定性和扩展性,通常会采用Web服务器集群的方式。在这种架构中,负载均衡器扮演着至关重要的角色,它能够合理地分配客户端请求到不同的后端服务器上,从而实现资源的最优利用。
134 2
|
4月前
|
负载均衡 算法 关系型数据库
MySQL集群如何实现负载均衡?
【8月更文挑战第16天】MySQL集群如何实现负载均衡?
223 6
|
4月前
|
负载均衡 网络协议
使用LVS搭建集群实现负载均衡(二)安装使用
【8月更文挑战第8天】使用LVS搭建集群实现负载均衡(二)安装使用
76 5
|
4月前
|
存储 负载均衡 算法
使用LVS搭建集群实现负载均衡(一)
【8月更文挑战第8天】使用LVS搭建集群实现负载均衡
161 5
|
4月前
|
负载均衡 监控 算法
在Linux中,如何配置和管理LVS集群?
在Linux中,如何配置和管理LVS集群?
|
5月前
|
负载均衡 NoSQL 应用服务中间件
搭建高可用及负载均衡的Redis
【7月更文挑战第10天】
163 1
|
5月前
|
负载均衡 安全 Cloud Native
云上负载均衡:构建高可用、高性能的网络应用架构
与云原生技术深度融合:随着云原生技术的普及和发展未来的云上负载均衡将更加紧密地与云原生技术相结合。例如与Kubernetes等容器编排平台集成实现自动化的服务发现和路由管理;与Serverless架构结合提供无缝的流量接入和请求处理能力。 安全性能提升:面对日益严峻的网络安全威胁云上负载均衡将更加注重安全性能的提升。通过引入加密传输、访问控制、DDoS防护等安全措施确保网络流量的安全性和隐私性;同时还将建立完善的安全监控和应急响应机制以应对各种安全事件和突发事件。 支持多协议和多场景:未来的云上负载均衡将支持更多种类的网络协议和应用场景以满足不同用户和业务的需求。例如支持HTTP/2、
258 0
|
负载均衡 应用服务中间件 Linux
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
174 0