Redis主从同步与对象模型

本文涉及的产品
云数据库 Redis 版,标准版 2GB
推荐场景:
搭建游戏排行榜
云原生内存数据库 Tair,内存型 2GB
日志服务 SLS,月写入数据量 50GB 1个月
简介: Redis主从同步与对象模型

redis淘汰策略

为什么会涉及到这个问题?  因为redis是一个内存数据库,如果此时redis是数据量已经达到了最大值,这时候我们再发送一个写命令去操作redis,此时如何定义我们的行为。这时候就涉及到淘汰策略的问题。

对象空转时长

操作一个value,redis都会帮我们记下时间。通过 object idletime key 命令可以知道此时这个对象空转了多少时间。单位为秒。每次读会刷新这个时间。

配置

maxmemory  : 设置redis内存占用的上限。通常设置当前有的内存的一半。

maxmemory-policy : 来指定淘汰策略。

淘汰策略

淘汰方向

1 从过期的key中淘汰

       volatile-lru        最长时间没有使用

       volatile-lfu        最少次数使用

       volatile-ttl         最近要过期

       volatile-random   随机

2 对所有的key淘汰

       allkeys-lru

       allkeys-lfu

       allkeys-random

3 禁止淘汰   :

       no-eviction     如果内存达到最大值,继续往里面加入数据的时候redis会报错。

Redis 持久化

redis 的数据全部在内存中,如果突然宕机,数据就会全部丢 失,因此需要持久化来保证 Redis 的数据不会因为故障而丢失, redis 重启的时候可以重新加载持久化文件来恢复数据;

Redis持久化相关的配置

###### aof ###### #

redis.cnf

appendonly no

appendfilename "appendonly.aof"

# aof read write   invert

# appendfsync always

appendfsync everysec

# appendfsync no

# auto-aof-rewrite-percentage 为 0 则关闭 aof 复写

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

# yes 如果 aof 数据不完整,尽量读取最多的格式正确的数据;

# no 如果 aof 数据不完整 报错,可以通过 redis-checkaof 来修复 aof 文件;

aof-load-truncated yes

# 开启混合持久化 aof-use-rdb-preamble yes

###### rdb ######

# save ""

# save 3600 1

# save 300 100

# save 60 10000

默认配置下,只开启 rdb 持久化;

aof

append only file

aof 日志存储的是 Redis 服务器的顺序指令序列,aof 日志只记录对内存修改的指令记录;

aof里面存储的是命令协议,通过重放(replay)aof 日志中指令序列来恢复 Redis 当前实例 的内存数据结构的状态;

aof配置

set key val
# 开启 aof
appendonly yes
# 关闭 aof复写
auto-aof-rewrite-percentage 0
# 关闭 混合持久化
aof-use-rdb-preamble no
# 关闭 rdb
save ""

aof有三种策略

# 1. 每条命令刷盘 redis 事务才具备持久性               在主线程处理,代价高

# appendfsync always #              每次调用write的时候就调用fsync持久化

2. 每秒刷盘  #另外的一个线程bio_fsync_aof中处理,通常采用这种,但是可能会丢1s的数据

appendfsync everysec

# 3. 交由系统刷盘                        丢失的概率最高

# appendfsync no

这三种策略对应着fsync(int fd)的调用时机。

缺点

随着时间越长,aof 日志会越来越长,如果 redis 重启,重放整 个 aof 日志会非常耗时,导致 redis 长时间无法对外提供服务;

set key v1

set key v2

set key v3 ...            我们只需要记录这个key最后一次修改的状态就好

aof rewrite

aof 持久化策略会持久化所有修改命令;里面的很多命令其实可以合并或者删除;

aof rewrite 在 aof 的基础上,满足一定策略则 fork 进程,根据当前内存状态,转换成一系列的 redis 命令(避免历史冗余数据),序列化成一个新的 aof 日志文件中,序列化完毕后再将操作期间发生的增量 aof 日志追加到新的 aof 日志文件中,追加完毕后替换旧的 aof 日志文件;以此达到对 aof 日志瘦身的目的;

注意:aof rewrite 开启的前提是开启 aof;

在重写aof期间,对redis的写操作会记录到重写缓冲区,当重写aof结束后,附加到aof文件末尾。

 lpush list mark

lpush list king

lpush list darren

bgrewriteaof

# 此时会将上面三个命令进行合并成为一个命令

# 合并策略:会先检测键所包含的元素数量,如果超过 64 个会使用多个命令来记录键的值; hset hash mark 10001

hset hash darren 10002

hset hash king 10003

hdel hash mark

bgrewriteaof # 此时aof中不会出现mark,设置mark跟删除mark变得像从来没操作过

配置

# 开启 aof

appendonly yes

# 开启 aof复写

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

# 关闭 混合持久化

aof-use-rdb-preamble no

# 关闭

rdb save ""

策略

# 1. redis 会记录上次aof复写时的size,如果之后累计超过了原来的size,则会发生aof复写;

auto-aof-rewrite-percentage 100

# 2. 为了避免策略1中,小数据量时产生多次发生aof复写,策略2在满足策略1的前提下需要超过 64mb 才会发生aof复写;

auto-aof-rewrite-min-size 64mb

缺点

aof-rewrite 在 aof 基础上实现了瘦身,但是 aof 复写的数据量仍然很大;加载会非常慢

优点: 数据可靠,丢失较少,持久化过程代价较低

rdb

基于 aof 或 aof 复写文件大的缺点,rdb 是一种快照持久化;它通过 fork 主进程,在子进程中将内存当中的数据键值对按照存储方式持久化到 rdb 文件中;rdb 存储的是经过压缩的二进制数据;

配置

# 关闭 aof 同时也关闭了 aof复写

appendonly no

# 关闭 aof复写

auto-aof-rewrite-percentage 0

# 关闭 混合持久化

aof-use-rdb-preamble no

# 开启 rdb 也就是注释 save "" #

save ""

save 3600 1

save 300 100

save 60 10000

缺点

若采用 rdb 持久化,一旦 redis 宕机,redis 将丢失一段时间的数据;持久化过程代价较高

优点: rdb文件小,数据恢复快

RDB 需要经常 fork 子进程来保存数据集到硬盘上,当数据集比较大的时候,fork 的过程是非常耗时的,可能会导致 Redis 在一 些毫秒级内不能响应客户端的请求。如果数据集巨大并且 CPU 性能不是很好的情况下,这种情况会持续1秒,AOF-rewrite 也需要 fork,但是你可以调节重写日志文件的频率来提高数据集的耐久度。

混合持久化

从上面知道,rdb 文件小且加载快但丢失多,aof 文件大且加载慢但丢失少;混合持久化是吸取 rdb 和 aof 两者优点的一种持 久化方案;aof-rewrite 的时候实际持久化的内容是 rdb,等持久 化后,持久化期间修改的数据以 aof 的形式附加到文件的尾部;

混合持久化实际上是在 aof-rewrite 基础上进行优化;所以需要先开启 aof-rewrite;

前面使用rdb协议,后面追加aof协议。

配置

# 开启 aof

appendonly yes

# 开启 aof复写

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

# 开启 混合持久化

aof-use-rdb-preamble yes

# 关闭 rdb save ""

# save 3600 1

# save 300 100

# save 60 10000

大key对持久化的影响

1 fsync压力较大

       always会阻塞主线程

       every-sec没什么影响因为是在子线程中处理

       no 对系统性能会有印象

2   fork时间比较长(如果内存占用过大,那么在缺页中断当中复制就慢),在渐进式rehash的时候会判断,没有子进程才会进行渐进式rehash。在扩容的过程当中,如果此时在fork子进程的话,就不允许扩容(除非负载因子 > 5)。当负载因子大于5的时候索引效率非常低,索引的时间复杂度会退化为O(n) ,所以子进程持久化的速度越快越好。redis当中大量的代码在fork的时候很多事情不能做。

应用

1. MySQL 缓存方案中,redis 不开启持久化,redis 只存储热点数据,数据的依据来源于 MySQL;若某些数据经常访问需要开启持久化,此时可以选择 rdb 持久化方案,也就是允许丢失一段时间数据;

2. 对数据可靠性要求高,在机器性能,内存也安全 (fork 写时复制最差的情况下 96G)的情况下,可以让 redis 同时开启 aof 和 rdb,注意此时不是混合持久化;redis 重启优先从 aof 加载数据,理论上 aof 包含更多最新数据;如果只开启一种,那么使用混合持久化;

3. 伪装从库;

数据安全策略

问题:拷贝持久化文件是否安全?

是安全的,持久化文件一旦被创建, 就不会进行任何修改。 当服务器要创建一个新的持久化文件时, 它先将文件的内容保存 在一个临时文件里面, 当临时文件写入完毕时, 程序才使用 rename(2) 原子地用临时文件替换原来的持久化文件。

数据安全要考虑两个问题:

1. 节点宕机(redis 是内存数据库,宕机数据会丢失)

2. 磁盘故障

1 创建一个定期任务(cron job), 每小时将一个 RDB 文件备份到一个文件夹, 并且每天将一个 RDB 文件备份到另一个文件夹。

2 确保快照的备份都带有相应的日期和时间信息, 每次执行定期任务脚本时, 使用 find 命令来删除过期的快照: 比如说, 你可以保留最近 48 小时内的每小时快照, 还可以保留最近一两个月的每日快照。

3 至少每天一次, 将 RDB 备份到你的数据中心之外, 或者至少是备份到你运行 Redis 服务器的物理机器之外。

redis高可用   主从复制

主要用来实现 redis 数据的可靠性;防止主 redis 所在磁盘损坏,造成数据永久丢失;主从之间采用异步复制的方式;

秒级的切换才称之为高可用。

命令

命令:redis-server --replicaof 127.0.0.1 7001

在 redis 5.0 以前使用 slaveof ;redis 5.0 之后使用 replicaof;

# redis.conf
replicaof 127.0.0.1 7002
info replication

数据同步

异步复制同步

全量数据同步:

增量数据同步:

异步数据同步缺点: server端发送写命令给redis-server此时redis-server处理完之后直接返回,假如此时redis-server主服务器断电宕机,那么从数据库可能没有办法即使跟新,会丢失一段时间的数据。

服务器 RUN ID

       无论主库还是从库都有自己的 RUN ID,RUN ID 启动时自动产生,RUN ID 由 40 个随机的十六进制字符组成;

       当从库对主库初次复制时,主库将自身的 RUN ID 传送给从库,从库会将 RUN ID 保存;

       当从库断线重连主库时,从库将向主库发送之前保存的 RUN ID;

       从库 RUN ID 和主库 RUN ID 一致,说明从库断线前复制的就是当前的主库;主库尝试执行增量同步操作;

       若不一致,说明从库断线前复制的主库并不时当前的主库, 则主库将对从库执行全量同步操作;

复制偏移量 offset

主从都会维护一个复制偏移量;

主库向从库发送 N 个字节的数据时,将自己的复制偏移量上加 N;

从库接收到主库发送的 N 个字节数据时,将自己的复制偏移量加上 N;

通过比较主从偏移量得知主从之间数据是否一致;偏移量相同则数据一致;偏移量不同则数据不一致;

环形缓冲区(复制积压缓冲区)

本质:固定长度先进先出队列;

存储内容:如下图;

当因某些原因(网络抖动或从库宕机)从库与主库断开连接, 避免重新连接后开始全量同步,在主库设置了一个环形缓冲区;该缓冲区会在从库失联期间累计主库的写操作;当从库重连,会发送自身的复制偏移量到主库,主库会比较主从的复制偏移量:

若从库 offset 还在复制积压缓冲区中,则进行增量同步;

否则,主库将对从库执行全量同步;

# redis.conf
repl-backlog-size 1mb
# 如果所有从库断开连接 3600 秒后没有从库连接,则释放环
形缓冲区
repl-backlog-ttl 3600

大小确定:disconnect_time * write_size_per_second

disconnect_time :从库断线后重连主库所需的平均时间(以秒为单位);

write_size_per_second :主库平均每秒产生的写命令数据量;

主从复制只解决了单点故障的问题,不能保证高可用。

Redis 哨兵模式

哨兵模式是 Redis 可用性的解决方案;它由一个或多个 sentinel 实例构成 sentinel 系统;该系统可以监视任意多个主库以及这些主库所属的从库;当主库处于下线状态,自动将该主库所属的某个从库升级为新的主库;

客户端来连接集群时,会首先连接 sentinel,通过 sentinel 来查询主节点的地址,然后再连接主节点进行数据交互。当主节点发生故障时,客户端会重新向 sentinel 索要主库地址,sentinel 会将最新的主库地址告诉客户端。通过这样客户端无须重启即可自动完成节点切换。

哨兵模式当中涉及多个选举流程采用的是 Raft 算法的领头选举方法的实现;

配置

# sentinel.cnf
# sentinel 只需指定检测主节点就行了,通过主节点自动发现从
节点
sentinel monitor mymaster 127.0.0.1 6379 2
# 判断主观下线时长
sentinel down-after-milliseconds mymaster 30000
# 指定可以有多少个Redis服务同步新的主机,一般而言,这个数字
越小同步时间越长,而越大,则对网络资源要求越高
sentinel parallel-syncs mymaster 1
# 指定故障切换允许的毫秒数,超过这个时间,就认为故障切换失
败,默认为3分钟
sentinel failover-timeout mymaster 180000

作用:

       1 监控数据节点的状态,自身不存储具体业务的数据,只存储redis节点的状态信息。

       2 选主节点,通常部署奇数个哨兵节点,主要是为了选主。

       3 只提供一个数据节点服务。

根据什么来选举?

       数据最新的选举为主库。  如何判断最新?  根据数据偏移量,偏移量从0加到64位最大值。

为什么需要奇数个哨兵节点呢?

       因为要半数以上认为某个节点可以为主节点才会选取该节点为主节点。如果是偶数个,那就可能平票。

检测异常

主观下线

sentinel 会以每秒一次的频率向所有节点(其他sentinel、主节 点、以及从节点)发送 ping 消息,然后通过接收返回判断该 节点是否下线;如果在配置指定 down-after-milliseconds 时间内则被判断为主观下线;

客观下线

当一个 sentinel 节点将一个主节点判断为主观下线之后,为了确 认这个主节点是否真的下线,它会向其他 sentinel 节点进行询问,如果收到一定数量(半数以上)的已下线回复,sentinel 会将主节点判定为客观下线,并通过领头 sentinel 节点对主节点 执行故障转移;

故障转移

主节点被判定为客观下线后,开始领头 sentinel 选举,需要半数 以上的 sentinel 支持,选举领头 sentinel 后,开始执行对主节点故障转移;

从从节点中选举一个从节点作为新的主节点

通知其他从节点复制连接新的主节点

若故障主节点重新连接,将作为新的主节点的从节点

使用

1. 连接一个哨兵节点,并且获取主节点信息; SENTINEL GET-MASTER-ADDR-BY-NAME

2. 验证当前获取的主节点,并连接; ROLE 或者 INFO REPLICATION

3. 为当前连接的哨兵节点,添加发布订阅(PUB/SUB)连接, 并且订阅 +switch-master 频道;监听主节点迁移信息

缺点

redis 采用异步复制的方式,意味着当主节点挂掉时,从节点可 能没有收到全部的同步消息,这部分未同步的消息将丢失。如果主从延迟特别大,那么丢失可能会特别多。sentinel 无法保证消息完全不丢失,但是可以通过配置来尽量保证少丢失。

# 主库必须有一个从节点在进行正常复制,否则主库就停止对外
写服务,此时丧失了可用性
min-slaves-to-write 1
# 这个参数用来定义什么是正常复制,该参数表示如果在10s内
没有收到从库反馈,就意味着从库同步不正常;
min-slaves-max-lag 10

同时,它的致命缺点是不能进行横向扩展;

工作当中很少使用!!!  通常使用cluster集群

Redis cluster集群

Redis cluster 将所有数据划分为 16384( 2^14)个槽位,每个 redis 节点负责其中一部分槽位。cluster 集群是一种去中心化的集群方式;

如图,该集群由三个 redis 节点组成,每个节点负责整个集群的 一部分数据,每个节点负责的数据多少可能不一样。这三个节点相互连接组成一个对等的集群,它们之间通过一种特殊的二进制协议交互集群信息;

当 redis cluster 的客户端来连接集群时,会得到一份集群的槽位配置信息。这样当客户端要查找某个 key 时,可以直接定位到目标节点。

客户端为了可以直接定位(对 key 通过 crc16 进行 hash 再对2^14取余)某个具体的 key 所在节点,需要缓存槽位相关信息, 这样才可以准确快速地定位到相应的节点。同时因为可能会存在客户端与服务器存储槽位的信息不一致的情况,还需要纠正机制(通过返回 -MOVED 3999 127.0.0.1:6479,客户端收到 后需要立即纠正本地的槽位映射表)来实现槽位信息的校验调整。

为什么要对2^14取余?

1 增大样本数,让数据均衡的落在节点当中。

2 固定算法,增加节点和删除节点不会让原来的映射关系失效。

另外,redis cluster 的每个节点会将集群的配置信息持久化到配置文件中,这就要求确保配置文件是可写的,而且尽量不要依靠人工修改配置文件;

尽量使三个主节点的数据均衡;分布式一致性hash

特征

1 去中心化

2 主节点对等

3 解决了数据扩容

4 客户端与服务端缓存槽位信息,以服务端为准,客户节点缓存主要为了避免连接切换

5 可人为数据迁移

数据迁移

redis cluster 提供了工具 redis-trib 可以让运维人员手动调整槽位的分配情况,它采用 ruby 语言开发,通过组合原生的 redis cluster 指令来实现。图中:A 为待迁移的源节点,B 为待迁移的目标节点;

过程

       如上图:redis 迁移的单位是槽,redis 是一个槽一个槽地进行迁 移,当一个槽位正在迁移时,这个槽就处于中间过渡状态。这 个槽再源节点的状态为 migrating,在目标节点的状态为 importing,表示此时数据正在从源节点流向目标节点。

       迁移工具 redis-trib 首先在源节点和目标节点设置好中间过渡状 态,然后一次性获取源节点槽位的所有或者部分的 key 列表, 再依次将 key 进行迁移。源节点对当前的 key 执行 dump 指令 得到序列化内容,然后向目标节点发送 restore 指令,目标节点 将源节点的序列化内容进行反序列化并将内容应用到目标节点 的内容中,然后返回 +ok 给源节点,源节点收到后删除该 key;按照这些步骤将所有待迁移的 key 进行迁移;

       注意:迁移过程是同步的,迁移过程中源节点的主线程处于阻 塞状态,直到 key 被删除;如果迁移过程中源节点出现网络故 障,这两个节点依然处于中间状态,重启后,redis-trib 仍可继 续迁移;

       所以,redis-trib 迁移的过程是一个一个 key 来进行,如果这个 key 对应 val 内容很大,将会影响到客户端的正常访问;

复制以及故障转移

cluster 集群中节点分为主节点和从节点,其中主节点用于处理 槽,而从节点则用于复制该主节点,并在主节点下线时,代替主节点继续处理命令请求;

故障检测

当从节点发现自己的主节点进入 FAIL 状态,从节点将开始对下线主节点进行故障转移;

1 从数据最新的从节点中选举为主节点;

2 该从节点会执行 replica no one 命令,称为新的主节点;

3 新的主节点会撤销所有对已下线主节点的槽指派,并将这些槽全部指派给自己;

4 新的主节点向集群广播一条 pong 消息,这条 pong 消息可以让集群中的其他节点立即知道这个节点已经由从节点变成主节点,并且这个主节点已经接管了之前下线的主节点;

5 新的主节点开始接收和自己负责处理的槽有关的命令请求, 故障转移结束;

集群配置

hiredis-cluster 安装编译

git clone https://github.com/Nordix/hirediscluster.git
cd hiredis-cluster
mkdir build
cd build
cmake -DCMAKE_BUILD_TYPE=RelWithDebInfo -DENABLE_SSL=ON ..
make
sudo make install
sudo ldconfig

创建文件夹

# 创建 6 个文件夹
mkdir -p 7001 7002 7003 7004 7005 7006
cd 7001
vi 7001.conf
# 7001.conf 中的内容如下

编辑 7001.conf

pidfile "/home/mark/redis-data/7001/7001.pid"
logfile "/home/mark/redis-data/7001/7001.log"
dir /home/mark/redis-data/7001/
port 7001
daemonize yes
cluster-enabled yes
cluster-config-file nodes-7001.conf
cluster-node-timeout 15000

复制配置

cp 7001/7001.conf 7002/7002.conf
cp 7001/7001.conf 7003/7003.conf
cp 7001/7001.conf 7004/7004.conf
cp 7001/7001.conf 7005/7005.conf
cp 7001/7001.conf 7006/7006.conf

修改配置

sed -i 's/7001/7002/g' 7002/7002.conf
sed -i 's/7001/7003/g' 7003/7003.conf
sed -i 's/7001/7004/g' 7004/7004.conf
sed -i 's/7001/7005/g' 7005/7005.conf
sed -i 's/7001/7006/g' 7006/7006.conf

创建启动配置

#!/bin/bash
redis-server 7001/7001.conf
redis-server 7002/7002.conf
redis-server 7003/7003.conf
redis-server 7004/7004.conf
redis-server 7005/7005.conf
redis-server 7006/7006.conf

手动创建集群

# 节点会面
cluster meet ip port
# 分配槽位
cluster addslots slot
# 分配主从
cluster replicate node-id

智能创建集群

redis-cli --cluster help
# --cluster-replicas 后面对应的参数 为 一主对应几个从数据库
redis-cli --cluster create host1:port1 ...
hostN:portN --cluster-replicas <arg>
redis-cli --cluster create 127.0.0.1:7001
127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004
127.0.0.1:7005 127.0.0.1:7006 --cluster-replicas 1

测试集群

设置值

redis-cli -c -p 7004  // -c 以集群的方式进入redis
set jianfeng 100

去中心化,  从任意一个节点写入,会自动帮我们重定向到某一个节点并且写入进去。

再次进入的时候也是一样,根绝crc16哈希算法对2^14取余得到12906,重定向到set写入的那台机。

主节点宕机

redis-cli -p 7001 shutdown

主节点重启

redis-server 7001/7001.conf

扩容

先添加节点,再分配槽位;

cp -R 7001 7007
cd 7007
mv 7001.conf 7007.conf
rm 7001.log dump.rdb nodes-7001.conf
sed -i "s/7001/7007/g" 7007.conf
cp -R 7007 7008
cd 7008
mv 7007.conf 7008.conf
sed -i "s/7007/7008/g" 7008.conf
cd ..
redis-server 7007/7007.conf
redis-server 7008/7008.conf
redis-cli --cluster add-node 127.0.0.1:7007
127.0.0.1:7001
redis-cli --cluster add-node 127.0.0.1:7008
127.0.0.1:7001 --cluster-slave --cluster-master-id d8f8470cf1698e67c5958a06b05e04f2197680c3
redis-cli --cluster reshard 127.0.0.1:7001
How many slots do you want to move (from 1 to
16384)? 1000
What is the receiving node ID?
d8f8470cf1698e67c5958a06b05e04f2197680c3
Please enter all the source node IDs.
 Type 'all' to use all the nodes as source nodes
for the hash slots.
 Type 'done' once you entered all the source
nodes IDs.
Source node #1: all
redis-cli --cluster reshard 127.0.0.1:7001 --
cluster-from
07617e42f430fe61ce6238fd85fa1a6ff04ab486 --
cluster-to
71e81275c71e8021bf080a1010d6f384cdc68e90 --
cluster-slots 1000

缩容

先移动槽位,再删除节点;

redis-cli --cluster reshard 127.0.0.1:7001 --
cluster-from
71e81275c71e8021bf080a1010d6f384cdc68e90 --
cluster-to
07617e42f430fe61ce6238fd85fa1a6ff04ab486 --
cluster-slots 1000
# 删除节点 7007
redis-cli --cluster del-node 127.0.0.1:7001
71e81275c71e8021bf080a1010d6f384cdc68e90
# 此时 7008 成为其他节点的 副本节点
redis-cli --cluster del-node 127.0.0.1:7001
ace84fc6e27cd847dd9e06296559e0854fe7b2b2

流程

1 连接集群中任意一个节点

2 若数据不在该节点,回收到连接切换的命令,继而连接到目标节点。

3 故障转移(主节点下线)

       集群节点间互相发送消息,交换节点的状态信息。

       若某主节点下线,将会被其它主节点标记下线。

       接着在该下线主节点的从节点中选择一个数据最新的从节点作为主节点。

       从节点继承下线主节点的槽位信息,并广播该消息给集群中其他节点。

缺点: 因为主从采用异步复制,在故障转移时仍然存在数据丢失的情况。

分布式延时队列

问题: 12306火车票购买,抢了订单后,45分钟没有支付,自动取消订单。

要求: 数据持久化

           有序存储 zset

           高可用

           高伸缩性

实现:

生产消费模型

采用cluster模式实现高可用以及高伸缩性

采用zset存储延时任务

为了让数据均匀分配在集群中

构建多个zset

每个zset对应一个消费者

生产者随机向某个zset中生产数据

相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore &nbsp; &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
2月前
|
存储 缓存 NoSQL
Redis常见面试题(二):redis分布式锁、redisson、主从一致性、Redlock红锁;Redis集群、主从复制,哨兵模式,分片集群;Redis为什么这么快,I/O多路复用模型
redis分布式锁、redisson、可重入、主从一致性、WatchDog、Redlock红锁、zookeeper;Redis集群、主从复制,全量同步、增量同步;哨兵,分片集群,Redis为什么这么快,I/O多路复用模型——用户空间和内核空间、阻塞IO、非阻塞IO、IO多路复用,Redis网络模型
Redis常见面试题(二):redis分布式锁、redisson、主从一致性、Redlock红锁;Redis集群、主从复制,哨兵模式,分片集群;Redis为什么这么快,I/O多路复用模型
|
1天前
|
消息中间件 存储 NoSQL
剖析 Redis List 消息队列的三种消费线程模型
Redis 列表(List)是一种简单的字符串列表,它的底层实现是一个双向链表。 生产环境,很多公司都将 Redis 列表应用于轻量级消息队列 。这篇文章,我们聊聊如何使用 List 命令实现消息队列的功能以及剖析消费者线程模型 。
29 20
剖析 Redis List 消息队列的三种消费线程模型
|
3月前
|
NoSQL Java Redis
Redis系列学习文章分享---第十八篇(Redis原理篇--网络模型,通讯协议,内存回收)
Redis系列学习文章分享---第十八篇(Redis原理篇--网络模型,通讯协议,内存回收)
60 0
|
8天前
|
NoSQL 安全 容灾
阿里云DTS踩坑经验分享系列|Redis迁移、同步
阿里云数据传输服务DTS在帮助用户迁移Redis数据、同步数据时,在某些复杂场景下会出现报错,或者源库与目标库数据不一致的问题,给用户带来困扰。本文介绍了DTS Redis到Redis迁移、同步过程中的典型问题,以帮助用户更好地使用DTS。
37 2
|
24天前
|
存储 NoSQL Redis
Redis存储原理与数据模型
Redis存储原理与数据模型
|
26天前
|
存储 缓存 NoSQL
Redis深度解析:部署模式、数据类型、存储模型与实战问题解决
Redis深度解析:部署模式、数据类型、存储模型与实战问题解决
|
2月前
|
监控 NoSQL Ubuntu
|
2月前
|
存储 消息中间件 NoSQL
中间件键值存储模型Redis
【7月更文挑战第11天】
36 3
|
2月前
|
安全 NoSQL Java
网络安全-----Redis12的Java客户端----客户端对比12,Jedis介绍,使用简单安全性不足,lettuce(官方默认)是基于Netty,支持同步,异步和响应式,并且线程是安全的,支持R
网络安全-----Redis12的Java客户端----客户端对比12,Jedis介绍,使用简单安全性不足,lettuce(官方默认)是基于Netty,支持同步,异步和响应式,并且线程是安全的,支持R
|
2月前
|
存储 Java
Redis08命令-Hash类型,也叫散列,其中value是一个无序字典,类似于java的HashMap结构,Hash结构可以将对象中的每个字段独立存储,可以针对每字段做CRUD
Redis08命令-Hash类型,也叫散列,其中value是一个无序字典,类似于java的HashMap结构,Hash结构可以将对象中的每个字段独立存储,可以针对每字段做CRUD