结合keepalived实现redis群集高可用故障自动切换

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
简介:

   系统架构图:

wKioL1NYeY7CE3KNAAGRzA16SNA956.jpg


我们所要实现的目的很简单,

104,107 为keepalive和redis主从架构,其余服务器比如105、106均为redis从库并且挂在vip 192.168.56.180下面。

主keepalive负责主要日常工作,从keepalive担任备机角色,一旦主keepalive挂掉,从keepalive服务器立即使从redis转变角色切换成master状态开始接管任务提供服务,实现业务的无缝切换,当挂掉的服务器修好上线后继续担任主的角色,从库会自动切换到slave状态并且不影响挂载在vip下的从redis的数据同步,一满足高并发架构的需求。


keepalive在ubuntu的安装很简单

1
2
3
4
apt-get  install  libssl-dev
apt-get  install  openssl
apt-get  install  libpopt-dev
apt-get  install  keepalived

redis的安装也很简单:

网上很多方法,也可参考我的另一篇文章: redis的shell安装脚本,实现在linux下本机主从架构

网上有一篇郭冬的一篇文章给了我很大启发故拿来参考:通过Keepalived实现Redis Failover自动故障切换

下面我们看192.168.56.104主keepalived的配置

/etc/keepalived/keepalived.conf


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
global_defs {
         notification_email {
                 409011500@qq.com
         }
         notification_email_from  409011500@qq.com
                 smtp_server 127.0.0.1  (如果本机配置的话)
                 smtp_connect_timeout 30
                 router_id redis-ha
}
vrrp_script chk_redis {
                 script  "/home/lhb/sh/redis_check.sh"    ###监控脚本
                 interval 2                                         ###监控时间
}
vrrp_instance VI_1 {
         state MASTER                             ###设置为MASTER
         interface eth0                           ###监控网卡
         virtual_router_id 52
         priority 101                             ###权重值
         authentication {
                      auth_type PASS              ###加密
                      auth_pass redis             ###密码
         }
         track_script {
                 chk_redis                        ###执行上面定义的chk_redis
         }
         virtual_ipaddress {
              192.168.56.180                         ###VIP
         }
         notify_master  /home/lhb/sh/redis_master .sh
         notify_backup  /home/lhb/sh/redis_backup .sh
}

/home/lhb/sh/redis_master.sh

1
2
3
4
5
6
7
8
9
10
11
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[master]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being master...."  >> $LOGFILE 2>&1
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
sleep  10  #延迟10秒以后待数据同步完成后再取消同步状态
echo  "Run SLAVEOF NO ONE cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1


/home/lhb/sh/redis_backup.sh

1
2
3
4
5
6
7
8
9
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[backup]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being slave...."  >> $LOGFILE 2>&1
sleep  15  #延迟15秒待数据被对方同步完成之后再切换主从角色
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1


/usr/local/redis/etc/redis.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
daemonize  yes
pidfile  /var/run/redis .pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile  "/usr/local/redis/log/redis.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error  yes
rdbcompression  yes
rdbchecksum  yes
dbfilename dump.rdb
dir  /usr/local/redis/data
slave-serve-stale-data  yes
slave- read -only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly  yes
appendfilename  "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua- time -limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events  ""
hash -max-ziplist-entries 512
hash -max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set -max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing  yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync  yes


192.168.56.107从keepalived的配置

/etc/keepalived/keepalived.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
global_defs {
         notification_email {
                 409011500@qq.com
         }
         notification_email_from 409011500@qq.com
                 smtp_server 127.0.0.1
                 smtp_connect_timeout 30
                 router_id redis-ha
}
vrrp_script chk_redis {
                 script  "/home/lhb/sh/redis_check.sh"    ###监控脚本
                 interval 2                                         ###监控时间
}
vrrp_instance VI_1 {
         state BACKUP                                 ###设置为BACKUP
         interface eth0                               ###监控网卡
         virtual_router_id 52
         priority 100                                 ###比MASTRE权重值低
         authentication {
                      auth_type PASS
                      auth_pass redis                 ###密码与MASTRE相同
         }
         track_script {
                 chk_redis                        ###执行上面定义的chk_redis
         }
         virtual_ipaddress {
              192.168.56.180                          ###VIP
         }
         notify_master  /home/lhb/sh/redis_master .sh
         notify_backup  /home/lhb/sh/redis_backup .sh
}


/home/lhb/sh/redis_master.sh

1
2
3
4
5
6
7
8
9
10
11
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[master]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being master...."  >> $LOGFILE 2>&1
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
sleep  10  #延迟10秒以后待数据同步完成后再取消同步状态
echo  "Run SLAVEOF NO ONE cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1


/home/lhb/sh/redis_backup.sh

1
2
3
4
5
6
7
8
9
#!/bin/bash
REDISCLI= "/usr/local/redis/bin/redis-cli"
LOGFILE= "/usr/local/redis/log/keepalived-redis-state.log"
echo  "[backup]"  >> $LOGFILE
date  >> $LOGFILE
echo  "Being slave...."  >> $LOGFILE 2>&1
sleep  15  #延迟15秒待数据被对方同步完成之后再切换主从角色
echo  "Run SLAVEOF cmd ..."  >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1


/home/lhb/sh/redis_check.sh

1
2
3
4
5
6
7
8
9
#!/bin/bash
ALIVE=` /usr/local/redis/bin/redis-cli  PING`
if  "$ALIVE"  ==  "PONG"  ];  then
   echo  $ALIVE
   exit  0
else
   echo  $ALIVE
   exit  1
fi


/usr/local/redis/etc/redis_slave.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
daemonize  yes
pidfile  /var/run/redis_salve .pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile  "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error  yes
rdbcompression  yes
rdbchecksum  yes
dbfilename dump_salve.rdb
dir  /usr/local/redis/data
slave-serve-stale-data  yes
slave- read -only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly  yes
appendfilename  "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua- time -limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events  ""
hash -max-ziplist-entries 512
hash -max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set -max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing  yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync  yes
SLAVEOF 192.168.56.104 6379


192.168.56.105、192.168.56.106 redis配置文件相同:

/usr/local/redis/etc/redis_salve.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
daemonize  yes
pidfile  /var/run/redis_salve .pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile  "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error  yes
rdbcompression  yes
rdbchecksum  yes
dbfilename dump_salve.rdb
dir  /usr/local/redis/data
slave-serve-stale-data  yes
slave- read -only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly no
appendfilename  "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua- time -limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events  ""
hash -max-ziplist-entries 512
hash -max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set -max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing  yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync  yes
SLAVEOF 192.168.56.180 6379


好了,下面我们就来展示一下是否是我们期待的那样?


启动192.168.56.104,192.168.56.107上的redis,keepalvied,以及192.168.56.105,192.168.56.106上的redis

在192.168.56.104 我们看到以下结果,已经获取vip:192.168.56.180

wKiom1NYiejyYscZAAJldQVu4Ss388.jpg


wKiom1NYinnxIpddAAFCuP5SdOw780.jpg


在192.168.56.107 我们看到以下结果,并没有获得vip192.168.56.180

wKioL1NYi1zBOgf1AAKBRQPf020589.jpg


wKiom1NYi4biZ_S3AAF73oQ0smY062.jpg


在192.168.56.105,192.168.56.106我们看到相同结果redis挂载在vip:192.168.56.180下

wKiom1NYjBuzgpjdAAEyqSBY5RY919.jpg


这时我们把192.168.56.104下的redis给关闭掉,看一下结果:vip已经释放

wKioL1NYjPXQ4BV_AAMw36SD3cA511.jpg

然后到192.168.56.107下看一下信息: 已经获取vip,并且redis已经从salve切换到master,并且从库105、106状态均为online

wKiom1NYjeDguOWsAAJWPJYKPGI184.jpg

wKioL1NYjbbxEHjuAAFUpLSSi1g578.jpg


192.168.56.105、192.168.56.106 redis结果:一直挂载在vip下面并且link_status处于up状态

wKiom1NYlL3DwQmnAAEXRmwk9Vc332.jpg

由此可见,当主redis挂掉后,备机上的redis立即切换为master,并且不影响业务正常运行。


我们然后把主上redis从新启动,看到下面结果: 主服务器获取vip

wKioL1NYlefRP8S_AAQN0ZwQ7F8168.jpg

redis信息:我们可以看到192.168.56.107备机已经出现在master的slave列表中

wKioL1NYlkaj5aC2AAFGW2SCmkA345.jpg

然后切换到:192.168.56.107看一下信息: 已经释放vip,并且redis已经从master切换到slave状态,并且指向的master是192.168.56.104

wKiom1NYlw2SQ3b_AAIcAEkp6cU174.jpg


wKioL1NYluSyuVL6AAFzkvp_rMo237.jpg


在看192.168.56.105、192.168.56.106 redis信息,亦然指向192.168.56.180

wKiom1NYl6ywM19YAAEZ8YuEbtI608.jpg


看到这里,已经满足我们系统架构最初的所有设想功能。有感兴趣的同学可以一起交流。谢谢



本文转自birdinroom 51CTO博客,原文链接:http://blog.51cto.com/birdinroom/1401663,如需转载请自行联系原作者
相关文章
|
3月前
|
存储 监控 NoSQL
Redis高可用架构全解析:从主从复制到集群方案
Redis高可用确保服务持续稳定,避免单点故障导致数据丢失或业务中断。通过主从复制实现数据冗余,哨兵模式支持自动故障转移,Cluster集群则提供分布式数据分片与水平扩展,三者层层递进,保障读写分离、容灾切换与大规模数据存储,构建高性能、高可靠的Redis架构体系。
|
NoSQL Redis
基于Redis的高可用分布式锁——RedLock
这篇文章介绍了基于Redis的高可用分布式锁RedLock的概念、工作流程、获取和释放锁的方法,以及RedLock相比单机锁在高可用性上的优势,同时指出了其在某些特殊场景下的不足,并提到了ZooKeeper作为另一种实现分布式锁的方案。
495 2
基于Redis的高可用分布式锁——RedLock
|
监控 NoSQL Redis
Redis 哨兵模式高可用
Redis 哨兵模式高可用
282 4
|
存储 监控 负载均衡
保证Redis的高可用性是一个涉及多个层面的任务,主要包括数据持久化、复制与故障转移、集群化部署等方面
【5月更文挑战第15天】保证Redis高可用性涉及数据持久化、复制与故障转移、集群化及优化策略。RDB和AOF是数据持久化方法,哨兵模式确保故障自动恢复。Redis Cluster实现分布式部署,提高负载均衡和容错性。其他措施包括身份认证、多线程、数据压缩和监控报警,以增强安全性和稳定性。通过综合配置与监控,可确保Redis服务的高效、可靠运行。
308 2
|
11月前
|
存储 负载均衡 NoSQL
搭建高可用及负载均衡的Redis
通过本文介绍的高可用及负载均衡Redis架构,可以有效提升Redis服务的可靠性和性能。主从复制、哨兵模式、Redis集群以及负载均衡技术的结合,使得Redis系统在应对高并发和数据一致性方面表现出色。这些配置和技术不仅适用于小型应用,也能够支持大规模企业级应用的需求。希望本文能够为您的Redis部署提供实用指导和参考。
778 9
|
存储 NoSQL 大数据
大数据-51 Redis 高可用方案CAP-AP 主从复制 一主一从 全量和增量同步 哨兵模式 docker-compose测试
大数据-51 Redis 高可用方案CAP-AP 主从复制 一主一从 全量和增量同步 哨兵模式 docker-compose测试
169 3
|
缓存 NoSQL 网络协议
【Azure Redis】因为Redis升级引发了故障转移后的问题讨论
3:对于Redis的Server Load指标,每秒创建连接数的并发值,是否有建议呢? 【答】:为了避免将缓存推到 100% 服务器负载,建议将连接创建速率保持在每秒 30 个以下。
132 0
|
负载均衡 NoSQL 应用服务中间件
搭建高可用及负载均衡的Redis
【7月更文挑战第10天】
675 1
|
存储 运维 NoSQL
Redis 分区:构建高性能、高可用的大规模数据存储解决方案
Redis 分区:构建高性能、高可用的大规模数据存储解决方案
228 2
|
监控 NoSQL 算法
Redis问题之哨兵模式中的配置文件会在故障转移后发生什么变化如何解决
Redis问题之哨兵模式中的配置文件会在故障转移后发生什么变化如何解决
208 0