今天是2017年的第一天,昨天也就是2016年的最后一天,我尝试部署了Centos7+Nginx+Keepalived实现WEB服务的高可用负载均衡服务,终于在2017年的第一天前完成了,所以在此分享给有需要的朋友;说到负载均衡,其实在linux下有很多服务可以实现,比如nginx、haproxy、lvs等服务,当前我们在前面的文章有介绍过了,但是对于高可用服务,我们在linux下最常见也是应用最多的是Keepalived,对于这些综合服务对于一个管理员来说是必须要会的,所以今天我们主要介绍的是Centos7+Nginx+Keepalived实现WEB(Apache)服务的高可用负载均衡。具体见下:
环境介绍:
Hostname:A-S
IP:192.168.5.21
Role:Apache Web Service
Hostname:B-S
IP:192.168.5.22
Role:Apache Web Service
Hostname:BB-S
IP:192.168.5.53
Role:Nginx+Keepalived
Hostname:BB-S
IP:192.168.5.54
Role:Nginx+Keepalived
Virtual IP:192.168.5.88
我们需要首先安装两台Apache Web服务
因为我们准备使用yum安装服务,所以需要定义阿里云仓库
1
2
3
4
5
|
cd
/etc/yum
.repo
vim epel.repo
添加以下内容
[epel] name=aliyun epel baseurl=http:
//mirrors
.aliyun.com
/epel/7Server/x86_64/
gpgcheck=0
|
首先在192.168.5.21上安装apache
1
|
yum isntall -y httpd
|
然后定义显示页面
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
vim
/var/www/html/index
.html
<
/html
>
<!DOCTYPE html>
<html>
<
head
>
<title>Welcome to Apache<
/title
>
<style>
body {
35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
<
/style
>
<style
type
=
"text/css"
>
h1{color:red}
h2{color:blue}
h3{color:green}
h4{color:yellow}
}
<
/style
>
<
/head
><body bgcolor=
'#46A3FF'
>
<h1>Welcome to A-S Apache<
/h1
>
<h2>HostName:A-S<
/h2
>
<h3>IP:192.168.5.21<
/h3
>
<h4>Service:Apache<
/h4
>
<input
type
=button value=
"Refresh"
onclick=
"window.location.href('http://192.168.5.21')"
>
<
/body
>
<
/html
>
|
1
|
Systemctl start httpd
|
然后添加默认的防火墙端口8o
1
|
Firewall-cmd --zone=public --add-port=
'80/tcp'
--permanent
|
1
2
3
|
或者vim
/etc/firewalld/zone/public
.xml
添加一下格式
<port portocal=
'tcp'
port=
'80'
>
|
我们测试访问
我们按照同上的方法在第二台服务器上进行配置,安装跳过
第二台主机的配置:192.168.5.22 主机名 B-S
安装好httpd后,我们将a-s上的index拷贝到b-s服务器上
1
|
scp
index.html root@192.168.5.22:
/var/www/html/
|
然后修改index.html文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
<
/html
>
<!DOCTYPE html>
<html>
<
head
>
<title>Welcome to Apache<
/title
>
<style>
body {
35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
<
/style
>
<style
type
=
"text/css"
>
h1{color:red}
h2{color:blue}
h3{color:green}
h4{color:yellow}
}
<
/style
>
<
/head
><body bgcolor=
'#CA8EFF'
>
<h1>Welcome to B-S Apache<
/h1
>
<h2>HostName:B-S<
/h2
>
<h3>IP:192.168.5.22<
/h3
>
<h4>Service:Apache<
/h4
>
<input
type
=button value=
"Refresh"
onclick=
"window.location.href('http://192.168.5.22')"
>
<
/body
>
<
/html
>
|
测试访问
接下来我们开始准备在两台前端服务器192.168.5.53、192.168.5.54上安装nginx和keepalived;我们将keepalived和nginx安装在同一台机器上
我们首先在主备服务器上安装nginx
我们首先要定于安装源, 才可以使用yum安装,我们在主备服务器上都配置
1
2
3
4
5
|
cd
/etc/yum
.repo
vim epel.repo
添加以下内容
[epel] name=aliyun epel baseurl=http:
//mirrors
.aliyun.com
/epel/7Server/x86_64/
gpgcheck=0
|
定义好后,我们将定义的安装源给另外一台备服务器也拷贝一份
1
|
scp
/etc/yum
.repo
/epel
.repo root@192.168.5.54
/etc/yum
.repo/
|
指定源后,我们就可以开始安装nginx了,首先在主服务器上
1
|
yum
install
-y nginx
|
安装后,我们首先查看默认的nginx配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
|
vim
/etc/nginx/nginx
.conf
# For more information on configuration, see:
# * Official English Documentation: http://nginx.org/en/docs/
# * Official Russian Documentation: http://nginx.org/ru/docs/
user nginx;
worker_processes auto;
error_log
/var/log/nginx/error
.log;
pid
/run/nginx
.pid;
# Load dynamic modules. See /usr/share/nginx/README.dynamic.
include
/usr/share/nginx/modules/
*.conf;
events {
worker_connections 1024;
}
http {
log_format main
'$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"'
;
access_log
/var/log/nginx/access
.log main;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 2048;
include
/etc/nginx/mime
.types;
default_type application
/octet-stream
;
# Load modular configuration files from the /etc/nginx/conf.d directory.
# See http://nginx.org/en/docs/ngx_core_module.html#include
# for more information.
include
/etc/nginx/conf
.d/*.conf;
server {
listen 80 default_server;
listen [::]:80 default_server;
server_name _;
root
/usr/share/nginx/html
;
# Load configuration files for the default server block.
include
/etc/nginx/default
.d/*.conf;
location / {
}
error_page 404
/404
.html;
location =
/40x
.html {
}
error_page 500 502 503 504
/50x
.html;
location =
/50x
.html {
}
}
# Settings for a TLS enabled server.
#
# server {
# listen 443 ssl http2 default_server;
# listen [::]:443 ssl http2 default_server;
# server_name _;
# root /usr/share/nginx/html;
#
# ssl_certificate "/etc/pki/nginx/server.crt";
# ssl_certificate_key "/etc/pki/nginx/private/server.key";
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 10m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
#
# # Load configuration files for the default server block.
# include /etc/nginx/default.d/*.conf;
#
# location / {
# }
#
# error_page 404 /404.html;
# location = /40x.html {
# }
#
# error_page 500 502 503 504 /50x.html;
# location = /50x.html {
# }
# }
}
|
默认配置我们备份一份
1
|
cp
/etc/nginx/nginx
.conf
/etc/nginx/nginx
.conf.bak
|
接下来我们要配置nginx实现后端服务器的web的负载均衡;
在此我们使用的是nginx负载均衡的默认方式-轮询
我们需要在http区域里面添加负载配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
upstream real_server_pool {
#ip_hash;
server 192.168.5.21:80 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.5.22:80 weight=1 max_fails=2 fail_timeout=30s;
}
# 添加一组真实的服务器地址池
# 供proxy_pass和fastcgi_pass指令中使用的代理服务器
# 后台如果有动态应用的时候,ip_hash指令可以通过hash算法
# 将客户端请求定位到同一台后端服务器上,解决session共享,
# 但建议用动态应用做session共享
# server用于指定一个后端服务器的名称和参数
# weight代表权,重默认为1,权重越高被分配的客户端越多
# max_fails 指定时间内对后端请求失败的次数
# fail_timeout 达到max_fails指定的失败次数后暂停的时间
# down参数用来标记为离线,不参与负载均衡.在ip_hash下使用
# backup仅仅在非backup服务器宕机或繁忙的时候使用
server {
listen 192.168.5.53:80;
# 监听ip改为本地ip
server_name localhost;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
#root html;
#index index.html index.htm;
proxy_next_upstream http_502 http_504 error timeout invalid_header;
proxy_pass http:
//real_server_pool
;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $remote_addr;
}
|
添加后的
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
|
# For more information on configuration, see:
# * Official English Documentation: http://nginx.org/en/docs/
# * Official Russian Documentation: http://nginx.org/ru/docs/
user nginx;
worker_processes auto;
error_log
/var/log/nginx/error
.log;
pid
/run/nginx
.pid;
# Load dynamic modules. See /usr/share/nginx/README.dynamic.
include
/usr/share/nginx/modules/
*.conf;
events {
worker_connections 1024;
}
http {
log_format main
'$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"'
;
access_log
/var/log/nginx/access
.log main;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 2048;
include
/etc/nginx/mime
.types;
default_type application
/octet-stream
;
upstream real_server_pool {
#ip_hash;
server 192.168.5.21:80 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.5.22:80 weight=1 max_fails=2 fail_timeout=30s;
}
# 添加一组真实的服务器地址池
# 供proxy_pass和fastcgi_pass指令中使用的代理服务器
# 后台如果有动态应用的时候,ip_hash指令可以通过hash算法
# 将客户端请求定位到同一台后端服务器上,解决session共享,
# 但建议用动态应用做session共享
# server用于指定一个后端服务器的名称和参数
# weight代表权,重默认为1,权重越高被分配的客户端越多
# max_fails 指定时间内对后端请求失败的次数
# fail_timeout 达到max_fails指定的失败次数后暂停的时间
# down参数用来标记为离线,不参与负载均衡.在ip_hash下使用
# backup仅仅在非backup服务器宕机或繁忙的时候使用
# Load modular configuration files from the /etc/nginx/conf.d directory.
# See http://nginx.org/en/docs/ngx_core_module.html#include
# for more information.
include
/etc/nginx/conf
.d/*.conf;
server {
# listen 80 default_server;
# listen [::]:80 default_server;
listen 192.168.5.53:80;
# 监听ip改为本地ip
server_name localhost;
# server_name _;
root
/usr/share/nginx/html
;
# Load configuration files for the default server block.
include
/etc/nginx/default
.d/*.conf;
#增加的
location / {
#root html;
#index index.html index.htm;
proxy_next_upstream http_502 http_504 error timeout invalid_header;
proxy_pass http:
//real_server_pool
;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $remote_addr;
}
error_page 404
/404
.html;
location =
/40x
.html {
}
error_page 500 502 503 504
/50x
.html;
location =
/50x
.html {
}
}
# Settings for a TLS enabled server.
#
# server {
# listen 443 ssl http2 default_server;
# listen [::]:443 ssl http2 default_server;
# server_name _;
# root /usr/share/nginx/html;
#
# ssl_certificate "/etc/pki/nginx/server.crt";
# ssl_certificate_key "/etc/pki/nginx/private/server.key";
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 10m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
#
# # Load configuration files for the default server block.
# include /etc/nginx/default.d/*.conf;
#
# location / {
# }
#
# error_page 404 /404.html;
# location = /40x.html {
# }
#
# error_page 500 502 503 504 /50x.html;
# location = /50x.html {
# }
# }
}
|
接着我们重启nginx
1
2
|
systemctl
enable
nginx
systemctl start nginx
|
接下来我们尝试访问一下,因为使用的是轮询,所以访问nginx会跳转到不同的两个页面
我们在安装keepalived前,先配置路由转发
1
2
|
vim
/etc/sysctl
.conf
net.ipv4.ip_forward = 1
# 此参数改为1
|
1
|
sysctl -p
# 使修改生效
|
接着我们在主服务器上安装keepalived
1
|
yum
install
-y keepalived
|
安装完成后,我们备份一下keepalived的配置文件
1
|
cp
/etc/keepalived/keepalived
.conf
/etc/keepalived/keepalived
.conf.bak
|
接下来我们查看一下默认的keepalived默认配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
|
cat
/etc/keepalived/keepalived
.conf
! Configuration File
for
keepalived
global_defs {
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc
smtp_server 192.168.200.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_instance VI_1 {
state MASTER
interface eth0
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.200.16
192.168.200.17
192.168.200.18
}
}
virtual_server 192.168.200.100 443 {
delay_loop 6
lb_algo rr
lb_kind NAT
nat_mask 255.255.255.0
persistence_timeout 50
protocol TCP
real_server 192.168.201.100 443 {
weight 1
SSL_GET {
url {
path /
digest ff20ad2481f97b1754ef3e12ecd3a9cc
}
url {
path
/mrtg/
digest 9b3a0c85a887a256d6939da88aabd8cd
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
virtual_server 10.10.10.2 1358 {
delay_loop 6
lb_algo rr
lb_kind NAT
persistence_timeout 50
protocol TCP
sorry_server 192.168.200.200 1358
real_server 192.168.200.2 1358 {
weight 1
HTTP_GET {
url {
path
/testurl/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
url {
path
/testurl2/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
url {
path
/testurl3/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.200.3 1358 {
weight 1
HTTP_GET {
url {
path
/testurl/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334c
}
url {
path
/testurl2/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334c
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
virtual_server 10.10.10.3 1358 {
delay_loop 3
lb_algo rr
lb_kind NAT
nat_mask 255.255.255.0
persistence_timeout 50
protocol TCP
real_server 192.168.200.4 1358 {
weight 1
HTTP_GET {
url {
path
/testurl/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
url {
path
/testurl2/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
url {
path
/testurl3/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.200.5 1358 {
weight 1
HTTP_GET {
url {
path
/testurl/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
url {
path
/testurl2/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
url {
path
/testurl3/test
.jsp
digest 640205b7b0fc66c1ea91c463fac6334d
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
|
接下来我们修改默认的keepalived配置
1
|
echo
>
/etc/keepalived/keepalived
.conf
|
我们清空默认配置后,添加以下内容
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
|
vim
/etc/keepalived/keepalived
.conf
global_defs {
notification_email {
gavin@ixmsoft.com
# 定义通知邮箱,有多个可以换行添加
}
notification_email_from admin@ixmsoft.com
# 定义发送邮件的邮箱
smtp_server mail.ixmsoft.com
# 定义发件服务器
smtp_connect_timeout 30
# 定义连接smtp服务器超时时间
router_id LVS_DEVEL
}
vrrp_instance VI_1 {
state MASTER
# 标示主备,备机上改为BACKUP
interface ens160
# HA监测的端口
virtual_router_id 51
# 主备的virtual_router_id的值必须相同
priority 100
# 优先级,通常主要比备稍大
advert_int 1
# VRRP Multicast 广播周期秒数
authentication {
# 定义认证
auth_type PASS
# 认证方式
auth_pass 1111
# 认证口令字
}
virtual_ipaddress {
# 定义vip
192.168.5.88
# 多个可换行添加,一行一个
}
}
virtual_server 192.168.5.88 80 {
delay_loop 6
# 每隔 6 秒查询 realserver 状态
lb_algo rr
lb_kind NAT
nat_mask 255.255.255.0
persistence_timeout 50
# 同一IP 的连接50秒内被分配到同一台realserver
protocol TCP
# 用TCP监测realserver的状态
real_server 192.168.5.53 80 {
#需要指向nginx负载的地址
weight 3
# 权重
TCP_CHECK {
connect_timeout 10
# 10秒无响应超时
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 192.168.5.54 80 {
#需要指向nginx负载的地址
weight 3
TCP_CHECK {
connect_timeout 3
delay_before_retry 3
connect_port 80
}
}
}
|
我们介绍一下主要参数
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
global_defs
notification_email : keepalived在发生诸如切换操作时需要发送email通知地址,后面的 smtp_server 相比也都知道是邮件服务器地址。也可以通过其它方式报警,毕竟邮件不是实时通知的。
router_id : 机器标识,通常可设为
hostname
。故障发生时,邮件通知会用到
vrrp_instance
state : 指定instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这里指定的,但这里指定的不算,还是得要通过竞选通过优先级来确定。如果这里设置为MASTER,但如若他的优先级不及另外一台,那么这台在发送通告时,会发送自己的优先级,另外一台发现优先级不如自己的高,那么他会就回抢占为MASTER
interface : 实例绑定的网卡,因为在配置虚拟IP的时候必须是在已有的网卡上添加的
mcast_src_ip : 发送多播数据包时的源IP地址,这里注意了,这里实际上就是在那个地址上发送VRRP通告,这个非常重要,一定要选择稳定的网卡端口来发送,这里相当于heartbeat的心跳端口,如果没有设置那么就用默认的绑定的网卡的IP,也就是interface指定的IP地址
virtual_router_id : 这里设置VRID,这里非常重要,相同的VRID为一个组,他将决定多播的MAC地址
priority : 设置本节点的优先级,优先级高的为master
advert_int : 检查间隔,默认为1秒。这就是VRRP的定时器,MASTER每隔这样一个时间间隔,就会发送一个advertisement报文以通知组内其他路由器自己工作正常
authentication : 定义认证方式和密码,主从必须一样
virtual_ipaddress : 这里设置的就是VIP,也就是虚拟IP地址,他随着state的变化而增加删除,当state为master的时候就添加,当state为backup的时候删除,这里主要是有优先级来决定的,和state设置的值没有多大关系,这里可以设置多个IP地址
track_script : 引用VRRP脚本,即在 vrrp_script 部分指定的名字。定期运行它们来改变优先级,并最终引发主备切换。
vrrp_script
告诉 keepalived 在什么情况下切换,所以尤为重要。可以有多个 vrrp_script
script : 自己写的检测脚本。也可以是一行命令如killall -0 nginx
interval 2 : 每2s检测一次
weight -5 : 检测失败(脚本返回非0)则优先级 -5
fall 2 : 检测连续 2 次失败才算确定是真失败。会用weight减少优先级(1-255之间)
rise 1 : 检测 1 次成功就算成功。但不修改优先级
|
保存退出后,我们启动keepalived
1
2
|
systemctl start keepalived
systemctl
enable
keepalived
|
然后我们测试ping一下vistual ip
注:如果ping不通vistual ip的话,有可能是keepalived.conf文件的中的网卡配置,centos6的网卡是eth0,而centos7的是 ens160
ping 192.168.5.88
接下来我们配置第二台备服务器,然后首先安装及配置nginx
1
|
yum
install
-y nginx
|
然后备份备服务器的nginx.conf文件
1
|
cp
/etc/nginx/nginx
.conf
/etc/nginx/nginx
.conf.bak
|
然后我们从主服务器下的nginx.conf配置拷贝到备服务器nginx目录下,然后替换默认的nginx.conf文件
1
|
scp
/etc/nginx/nginx
.conf root@192.168.5.54:
/etc/nginx/
|
然后我们修改备服务器的监听地址,需要指向备服务器的本地地址---> listen 192.168.5.54:80; # 监听ip改为本地ip
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
|
# For more information on configuration, see:
# * Official English Documentation: http://nginx.org/en/docs/
# For more information on configuration, see:
# * Official English Documentation: http://nginx.org/en/docs/
# * Official Russian Documentation: http://nginx.org/ru/docs/
user nginx;
worker_processes auto;
error_log
/var/log/nginx/error
.log;
pid
/run/nginx
.pid;
# Load dynamic modules. See /usr/share/nginx/README.dynamic.
include
/usr/share/nginx/modules/
*.conf;
events {
worker_connections 1024;
}
http {
log_format main
'$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"'
;
access_log
/var/log/nginx/access
.log main;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 2048;
include
/etc/nginx/mime
.types;
default_type application
/octet-stream
;
upstream real_server_pool {
#ip_hash;
server 192.168.5.21:80 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.5.22:80 weight=1 max_fails=2 fail_timeout=30s;
}
# 添加一组真实的服务器地址池
# 供proxy_pass和fastcgi_pass指令中使用的代理服务器
# 后台如果有动态应用的时候,ip_hash指令可以通过hash算法
# 将客户端请求定位到同一台后端服务器上,解决session共享,
# 但建议用动态应用做session共享
# server用于指定一个后端服务器的名称和参数
# weight代表权,重默认为1,权重越高被分配的客户端越多
# max_fails 指定时间内对后端请求失败的次数
# fail_timeout 达到max_fails指定的失败次数后暂停的时间
# down参数用来标记为离线,不参与负载均衡.在ip_hash下使用
# backup仅仅在非backup服务器宕机或繁忙的时候使用
# Load modular configuration files from the /etc/nginx/conf.d directory.
# See http://nginx.org/en/docs/ngx_core_module.html#include
# for more information.
include
/etc/nginx/conf
.d/*.conf;
server {
# listen 80 default_server;
# listen [::]:80 default_server;
listen 192.168.5.54:80;
# 监听ip改为本地ip
server_name localhost;
# server_name _;
root
/usr/share/nginx/html
;
# Load configuration files for the default server block.
include
/etc/nginx/default
.d/*.conf;
location / {
#root html;
#index index.html index.htm;
proxy_next_upstream http_502 http_504 error timeout invalid_header;
proxy_pass http:
//real_server_pool
;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $remote_addr;
}
error_page 404
/404
.html;
location =
/40x
.html {
}
error_page 500 502 503 504
/50x
.html;
location =
/50x
.html {
}
}
# Settings for a TLS enabled server.
#
# server {
# listen 443 ssl http2 default_server;
# listen [::]:443 ssl http2 default_server;
# server_name _;
# root /usr/share/nginx/html;
#
# ssl_certificate "/etc/pki/nginx/server.crt";
# ssl_certificate_key "/etc/pki/nginx/private/server.key";
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 10m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
#
# # Load configuration files for the default server block.
# include /etc/nginx/default.d/*.conf;
#
# location / {
# }
#
# error_page 404 /404.html;
# location = /40x.html {
# }
#
# error_page 500 502 503 504 /50x.html;
# location = /50x.html {
# }
# }
}
|
其实我们也可以只修改添加的内容
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
upstream real_server_pool {
#ip_hash;
server 192.168.5.21:80 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.5.22:80 weight=1 max_fails=2 fail_timeout=30s;
}
# 添加一组真实的服务器地址池
# 供proxy_pass和fastcgi_pass指令中使用的代理服务器
# 后台如果有动态应用的时候,ip_hash指令可以通过hash算法
# 将客户端请求定位到同一台后端服务器上,解决session共享,
# 但建议用动态应用做session共享
# server用于指定一个后端服务器的名称和参数
# weight代表权,重默认为1,权重越高被分配的客户端越多
# max_fails 指定时间内对后端请求失败的次数
# fail_timeout 达到max_fails指定的失败次数后暂停的时间
# down参数用来标记为离线,不参与负载均衡.在ip_hash下使用
# backup仅仅在非backup服务器宕机或繁忙的时候使用
server {
listen 192.168.5.54:80;
# 监听ip改为本地ip
server_name localhost;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
#root html;
#index index.html index.htm;
proxy_next_upstream http_502 http_504 error timeout invalid_header;
proxy_pass http:
//real_server_pool
;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $remote_addr;
}
|
然后我们启动备服务器的nginx服务
1
2
|
systemctl start nginx
systemctl
enable
nginx
|
我们在安装keepalived前,先配置路由转发
1
2
|
vim
/etc/sysctl
.conf
net.ipv4.ip_forward = 1
# 此参数改为1
|
1
|
sysctl -p
# 使修改生效
|
然后安装keepalived
然后我们备份默认keepalived配置
1
|
cp
/etc/keepalived/keepalived
.conf
/etc/keepalived/keepalived
.conf.bak
|
然后修改拷贝的数据文件,
1
|
scp
/etc/keepalived/keepalived
.conf root@192.168.5.54:
/etc/keepalived/
|
配置备用调度器的keepalived,只需要将state MASTER 改为state BACKUP,降低priority 100 的值:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
|
vim
/etc/keepalived/keepalived
.conf
global_defs {
notification_email {
gavin@ixmsoft.com
# 定义通知邮箱,有多个可以换行添加
}
notification_email_from admin@ixmsoft.com
# 定义发送邮件的邮箱
smtp_server mail.ixmsoft.com
# 定义发件服务器
smtp_connect_timeout 30
# 定义连接smtp服务器超时时间
router_id LVS_DEVEL
}
vrrp_instance VI_1 {
state BACKUP
# 标示主备,备机上改为BACKUP
interface ens160
# HA监测的端口
virtual_router_id 51
# 主备的virtual_router_id的值必须相同
priority 50
# 优先级,通常主要比备稍大
advert_int 1
# VRRP Multicast 广播周期秒数
authentication {
# 定义认证
auth_type PASS
# 认证方式
auth_pass 1111
# 认证口令字
}
virtual_ipaddress {
# 定义vip
192.168.5.88
# 多个可换行添加,一行一个
}
}
virtual_server 192.168.5.88 80 {
delay_loop 6
# 每隔 6 秒查询 realserver 状态
lb_algo rr
lb_kind NAT
nat_mask 255.255.255.0
persistence_timeout 50
# 同一IP 的连接50秒内被分配到同一台realserver
protocol TCP
# 用TCP监测realserver的状态
real_server 192.168.5.53 80 {
#需要指向nginx负载的地址
weight 3
# 权重
TCP_CHECK {
connect_timeout 10
# 10秒无响应超时
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 192.168.5.54 80 {
#需要指向nginx负载的地址
weight 3
TCP_CHECK {
connect_timeout 3
delay_before_retry 3
connect_port 80
}
}
}
|
我们介绍一下主要参数
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
global_defs
notification_email : keepalived在发生诸如切换操作时需要发送email通知地址,后面的 smtp_server 相比也都知道是邮件服务器地址。也可以通过其它方式报警,毕竟邮件不是实时通知的。
router_id : 机器标识,通常可设为
hostname
。故障发生时,邮件通知会用到
vrrp_instance
state : 指定instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这里指定的,但这里指定的不算,还是得要通过竞选通过优先级来确定。如果这里设置为MASTER,但如若他的优先级不及另外一台,那么这台在发送通告时,会发送自己的优先级,另外一台发现优先级不如自己的高,那么他会就回抢占为MASTER
interface : 实例绑定的网卡,因为在配置虚拟IP的时候必须是在已有的网卡上添加的
mcast_src_ip : 发送多播数据包时的源IP地址,这里注意了,这里实际上就是在那个地址上发送VRRP通告,这个非常重要,一定要选择稳定的网卡端口来发送,这里相当于heartbeat的心跳端口,如果没有设置那么就用默认的绑定的网卡的IP,也就是interface指定的IP地址
virtual_router_id : 这里设置VRID,这里非常重要,相同的VRID为一个组,他将决定多播的MAC地址
priority : 设置本节点的优先级,优先级高的为master
advert_int : 检查间隔,默认为1秒。这就是VRRP的定时器,MASTER每隔这样一个时间间隔,就会发送一个advertisement报文以通知组内其他路由器自己工作正常
authentication : 定义认证方式和密码,主从必须一样
virtual_ipaddress : 这里设置的就是VIP,也就是虚拟IP地址,他随着state的变化而增加删除,当state为master的时候就添加,当state为backup的时候删除,这里主要是有优先级来决定的,和state设置的值没有多大关系,这里可以设置多个IP地址
track_script : 引用VRRP脚本,即在 vrrp_script 部分指定的名字。定期运行它们来改变优先级,并最终引发主备切换。
vrrp_script
告诉 keepalived 在什么情况下切换,所以尤为重要。可以有多个 vrrp_script
script : 自己写的检测脚本。也可以是一行命令如killall -0 nginx
interval 2 : 每2s检测一次
weight -5 : 检测失败(脚本返回非0)则优先级 -5
fall 2 : 检测连续 2 次失败才算确定是真失败。会用weight减少优先级(1-255之间)
rise 1 : 检测 1 次成功就算成功。但不修改优先级
|
记得修改防火墙配置哦
1
|
firewall-cmd --add-port=
'tcp/80'
--permanent
|
然后我们启动 keepalived服务
1
2
|
systemctl start keepalived
systemcltl
enable
keepalived
|
我们也测试ping一下vistual ip:
ping 192.168.5.88
接下来我们要实现realserver服务器配置
我们需要在两台web(http)192.168.5.21,192.168.5.22,需要在这两台服务器上配置虚拟VIP,所以在服务器上执行以下脚本
首先在192.168.5.21服务器上新建脚本文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
vim real_server
然后添加一下脚本内容:
#!/bin/bash
# chkconfig: 2345 85 35
# Description: Start real server with host boot
VIP=192.168.5.88
function
start() {
ifconfig
lo:0 $VIP netmask 255.255.255.255 broadcast $VIP
echo
1 >
/proc/sys/net/ipv4/conf/lo/arp_ignore
echo
2 >
/proc/sys/net/ipv4/conf/lo/arp_announce
echo
1 >
/proc/sys/net/ipv4/conf/all/arp_ignore
echo
2 >
/proc/sys/net/ipv4/conf/all/arp_announce
echo
“Real Server $(
uname
-n) started”
}
function
stop() {
ifconfig
lo:0 down
ifconfig
lo:0 $VIP netmask 255.255.255.255 broadcast $VIP
echo
0 >
/proc/sys/net/ipv4/conf/lo/arp_ignore
echo
0 >
/proc/sys/net/ipv4/conf/lo/arp_announce
echo
0 >
/proc/sys/net/ipv4/conf/all/arp_ignore
echo
0 >
/proc/sys/net/ipv4/conf/all/arp_announce
echo
“Real Server $(
uname
-n) stopped”
}
case
$1
in
start)
start
;;
stop)
stop
;;
*)
echo
“Usage: $0 {start|stop}”
exit
1
esac
|
保存退出后
然后赋予执行权限
1
|
chmoe a+x realserver
|
然后将脚本拷贝到第二台web服务器上:192.168.5.22
1
|
scp
/DATA/real_server
root@192.168.5.22
/DATA/
|
我们在第二台服务器上查看
最后我们说一下如何将realserver的脚本添加到随系统启动
我们将使用chkconfig --add 来管理服务器的添加、顺序
1
2
3
|
cp
realserver
/etc/init
.d/ 将脚本拷贝到指定目录
chkconfig --add realserver 添加realserver脚本到自动启动
chkconfig --list 查看自动启动服务
|
1
|
chkconfig --list 查看自动启动服务
|
通过以上配置后,我们就可以通过服务进行操作了
1
2
|
/etc/init
.d
/realserver
stop
/etc/init
.d
/realserver
start
|
1
|
chkconfig realserver on 设置为自动启动
|
然后我们在第二台web服务器上做同样的操作
1
2
3
|
cp
realserver
/etc/init
.d/ 将脚本拷贝到指定目录
chkconfig --add realserver 添加realserver脚本到自动启动
chkconfig --list 查看自动启动服务
|
1
|
chkconfig --list 查看自动启动服务
|
通过以上配置后,我们就可以通过服务进行操作了
1
2
|
/etc/init
.d
/realserver
stop
/etc/init
.d
/realserver
start
|
1
|
chkconfig realserver on 设置为自动启动
|
接下来我们就是测试了,我们在两台realserver上执行查看ip状态
1
2
|
a-s
ip a sh
|
1
2
|
b-s
ip a sh
|
最后我们在keelalived服务器上查看ip状态,从状态上看,我们的keepalived是监听在备服务器上的,如果将备服务器keepalibed停止后,会切换到主服务器上的
1
2
|
aa-s 主服务器
ip a sh
|
备服务器:
1
2
|
bb-s 备服务器
ip a sh
|
最后我们就是测试了
我们访问vistual ip进行测试
我们查看log
1
|
tail
-f
/var/log/message
|
我们停止主服务器的keepalived服务
查看备服务器的log
最后我们说一下keepalived的log;Keepalived默认所有的日志都是写入到/var/log/message下的,由于message的日志太多了,而Keepalived的日志又很难分离出来,所以本文提供了一个调整Keepalived日志输出路径的方法。
具体操作步骤如下:
一、修改 /etc/sysconfig/keepalived
默认配置
1
|
vim
/etc/sysconfig/keepalived
|
1
2
3
|
vim
/etc/sysconfig/keepalived
把KEEPALIVED_OPTIONS=
"-D"
修改为KEEPALIVED_OPTIONS=
"-D -d -S 0"
#其中-S指定syslog的facility
|
1
2
3
4
5
6
7
|
接下来设置syslog
vim
/etc/rsyslog
.conf
注:Cnetos6的路劲是
/etc/syslog
.conf
Centos7的路劲是
/etc/rsyslog
.conf
添加以下配置
# keepalived -S 0
local0.*
/var/log/keepalived
.log
|
保存退出后,重启服务
1
2
|
systemctl restart rsyslog
systemctl restart keepalived
|
接下来我们查看/var/log路劲是否生成了keepalived.log文件
1
|
tail
-f
/var/log/keepalived
.conf
|
本文转自 高文龙 51CTO博客,原文链接:http://blog.51cto.com/gaowenlong/1887956,如需转载请自行联系原作者