Redis学习笔记之集群重启和遇到的坑-阿里云开发者社区

开发者社区> 数据库> 正文

Redis学习笔记之集群重启和遇到的坑

简介: Redis学习笔记之集群重启和遇到的坑

重启集群的步骤

以我的理解,Redis集群重启分2种:
1.普通重启,继续保留现有集群结构和持久化数据。
2.破坏重启,破坏掉集群结构和删除持久化数据,重启后相当于重新创建集群。
当然,通常我们肯定用的是第一种了。那么集群的重启步骤也很简单,就是先关闭再开启,下面以我的测试环境来举例。
一主一从,共6节点,都部署在一台服务器上。
1.普通重启
关闭集群:

redis-cli -c -h 192.168.211.131 -p 7000 shutdown
redis-cli -c -h 192.168.211.131 -p 7001 shutdown
redis-cli -c -h 192.168.211.131 -p 7002 shutdown
redis-cli -c -h 192.168.211.131 -p 7003 shutdown
redis-cli -c -h 192.168.211.131 -p 7004 shutdown
redis-cli -c -h 192.168.211.131 -p 7005 shutdown

启动集群:

redis-server /redis/redis-6.0.6/cluster/7000/redis.conf
redis-server /redis/redis-6.0.6/cluster/7001/redis.conf
redis-server /redis/redis-6.0.6/cluster/7002/redis.conf
redis-server /redis/redis-6.0.6/cluster/7003/redis.conf
redis-server /redis/redis-6.0.6/cluster/7004/redis.conf
redis-server /redis/redis-6.0.6/cluster/7005/redis.conf

2.破坏重启
关闭集群:

redis-cli -c -h 192.168.211.131 -p 7000 shutdown
redis-cli -c -h 192.168.211.131 -p 7001 shutdown
redis-cli -c -h 192.168.211.131 -p 7002 shutdown
redis-cli -c -h 192.168.211.131 -p 7003 shutdown
redis-cli -c -h 192.168.211.131 -p 7004 shutdown
redis-cli -c -h 192.168.211.131 -p 7005 shutdown

删除持久化文件、日志文件和集群配置文件

rm -f append.aof dump.rdb redis.log nodes*.conf

启动集群:

redis-server /redis/redis-6.0.6/cluster/7000/redis.conf
redis-server /redis/redis-6.0.6/cluster/7001/redis.conf
redis-server /redis/redis-6.0.6/cluster/7002/redis.conf
redis-server /redis/redis-6.0.6/cluster/7003/redis.conf
redis-server /redis/redis-6.0.6/cluster/7004/redis.conf
redis-server /redis/redis-6.0.6/cluster/7005/redis.conf

由于现有集群结构被破坏了,所以还要创建集群

redis-cli --cluster create 192.168.211.131:7000 192.168.211.131:7001 \
192.168.211.131:7002 192.168.211.131:7003 192.168.211.131:7004 \
192.168.211.131:7005 --cluster-replicas 1

这样一个新的集群就创建好了

在知道了集群重启的步骤后,来说下遇到的坑。

第一个坑

在自己的测试环境,一主一从,共6节点,都部署在一台服务器上,Redis开启了持久化,在重启集群后,发现有数据丢失,查看日志也没有发现错误,接下来在查看AOF文件和RDB文件后发现了问题,的确是有数据丢失,而且少的还是只有节点7001上的数据,这就很奇怪了,当时猜测是否是由于持久化文件在节点之间不共享,7001节点的文件被7000的覆盖掉了。为了验证这个推断,修改了appendfilename和dbfilename参数,每个节点文件名唯一。之后创建新数据,再次重启,这次没有发现数据丢失,所有数据都存在。
简单模拟下这个问题:
修改6个节点的持久化文件参数,使用默认参数

appendfilename appendonly.aof
dbfilename dump.rdb

启动Redis集群,新加数据
图片.png
重启集群
可以看出有的数据丢失了
图片.png
其实持久化的数据是可以在AOF文件中看到的,下面2个节点的AOF文件中的键值是相同的,可以大致推断出是一主一从节点。
图片.png
图片.png
从cluster nodes的结果来看,也能验证。
图片.png

第二个坑

redis.conf中的dir参数,这个参数配置的是工作目录,包括指定AOF文件和RDB文件的路径,如果不配置,那么RDB文件和AOF文件就会在执行redis-server启动命令的路径下创建。这样就会导致在重启后无法正确加载持久化文件,所以dir参数一定要配置。

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
数据库
使用钉钉扫一扫加入圈子
+ 订阅

分享数据库前沿,解构实战干货,推动数据库技术变革

其他文章