Cassandra 数据一致性修复 repair 来龙去脉

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 Tair(兼容Redis),内存型 2GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
简介: 文章分3块:1.为什么需要repair?;2.repair大概流程?;3.repair可能的问题。

Cassandra repair 流程

文章分3块:1.为什么需要repair?;2.repair大概流程?;3.repair可能的问题。

为什么需要repair

cassandra 如何修复副本数据

我们知道Cassandra是一个强调最终一致性的系统,副本间的数据并不能保证强一致(但是从客户端角度,通过QUORUM等级别读写还是可以保证客户端视角的强一致[1])。因为副本间数据是最终一致,所以Cassandra通过hinted-handoff、read-repair、repair 进行副本间数据补齐;这三个方式各有优缺点:

  • hinted-handoff 用来补齐节点挂掉期间的数据,但是挂掉时间太久这个特性会失效且hint机制存在数据可靠性风险;
  • read-repair:只有被读到的不一致数据才会被修复,那么如果没有被读到的数据很多怎么办?
  • repair:全量的修复方案,保证做多个副本在某个时间点(触发repair时刻)前的数据全量修复一致。

从上述描述看出,repair是一个兜底修复副本数据的方案,那么既然上面说了,通过quorum可以保证客户端视角的强一致,我们还需要通过repair来修复全量副本数据么?答案是:必须要,而且官方也建议在一定周期(gc_grace_seconds)内必须要做一次[2],才能保证系统的正确性。

如果不做repair会怎么样?

图1.jpg

假设3个副本(A/B/C),quorum级别的读写删数据,时刻t1用户最初以quorum级别成功写入数据1,假设A/B/C都写入成功;时刻t2用户quorum级别删除1数据,假设这里C副本删除失败,但是客户依旧显示删除成功;时刻t3(这里假设t3-t2 > gc_grace_seconds,且用户没有做repair 且期间)。那么A/B副本会compaction把1数据合并删除掉,但是c副本没有删除mark。

最终结果一条被用户认为删除成功的key ,”死灰复燃“的读到了。

所以:repair必须要做。

repair大概流程

图2.jpg

全量数据repair需要人为手工通过节点nodetool提交外围任务,具体的nodetool 命令行参数 可以下次介绍,这里大概分享下一轮repair在副本节点之间进行的流程。假设开始做A 节点负责的数据,对应副本涉及B/C节点,那么一次执行的修复链路是:

  • 计算A/B/C三个相关副本数据的全量merkle-tree[3],这是一个二分hash树;从底往上计算hash、叶子节点是小range范围的数据的sha2 hash值,内部节点是其左右子节点的hash值(xor);
  • 通过两两对比merkle-tree,可以知道具体节点间不一致的数据范围;
  • 两两走内部stream 拖数据流程补齐相关数据。

repair可能的问题

  • 运维复杂:

    • 节点数据量如果较大,整个执行过程可能会耗时很久,时间越久出现问题的可能性就越大;
    • 为了避免repair对集群影响较大,repair需要针对节点差异化执行,那么对运维复杂性会带来挑战;
    • 需要表级别gc_grace_seconds 内做一次,如果表过多,会造成运维差异化难度较大;
  • 资源消耗较大:

    • 一般cassandra被用于在线服务场景,但是做repair会带来瞬时资源较大开销:cpu、io、网络,影响服务稳定性;

现在社区解决方案有:incremental repair、schedule repair等方案[4],此外datastax公司也有nodesync[5],scylladb 公司有row-level repair。对应我们也有相关的定制功能。目的是降低运维复杂度,降低repair时候对在线服务的影响。

入群邀约
为了营造一个开放的 Cassandra 技术交流环境,社区建立了微信群公众号和钉钉群,为广大用户提供专业的技术分享及问答,定期开展专家技术直播,欢迎大家加入。
另外阿里云提供商业化Cassandra使用,中国站和国际站都支持https://www.aliyun.com/product/cds
图3.jpg

引用:

[1] https://www.allthingsdistributed.com/2008/12/eventually_consistent.html

[2] https://cassandra.apache.org/doc/latest/operating/repair.html

[3] https://en.wikipedia.org/wiki/Merkle_tree

[4] https://issues.apache.org/jira/browse/CASSANDRA-14346

[5] https://docs.datastax.com/en/dse/6.0/dse-dev/datastax_enterprise/config/aboutNodesync.html

[6] https://docs.scylladb.com/operating-scylla/procedures/maintenance/repair/

目录
相关文章
|
存储 缓存 算法
ES写入过程和写入原理调优及如何保证数据的写一致性(上)
ES写入过程和写入原理调优及如何保证数据的写一致性
ES写入过程和写入原理调优及如何保证数据的写一致性(上)
|
2月前
|
存储 运维 算法
蚂蚁Raft一致性算法库SOFAJRaft深入分析
大家好,我是 V 哥。SOFAJRaft 是蚂蚁金服开源的一款基于 Raft 共识算法的 Java 实现,特别适合高负载、低延迟的分布式系统。它支持 Multi-Raft-Group,能同时处理多个 Raft 集群,具备扩展性和强一致性保障。项目源自百度的 braft,并在性能和功能上进行了优化。本文将深入探讨 SOFAJRaft 的核心源码实现,包括 Leader 选举、日志复制、一致性维护、日志管理和快照机制等。通过关键代码展示其在节点初始化、日志复制、一致性维护等方面的设计思路。希望帮助大家更好地理解 Raft 算法,求关注和点赞,感谢!
蚂蚁Raft一致性算法库SOFAJRaft深入分析
|
1月前
|
消息中间件 分布式计算 大数据
大数据-75 Kafka 高级特性 稳定性-一致性保证 LogAndOffset(LEO) HightWatermark(HW) 水位/水印
大数据-75 Kafka 高级特性 稳定性-一致性保证 LogAndOffset(LEO) HightWatermark(HW) 水位/水印
44 3
|
6月前
|
存储 运维 负载均衡
关系型数据库引入故障转移机制
【5月更文挑战第4天】关系型数据库引入故障转移机制
61 8
关系型数据库引入故障转移机制
|
6月前
|
存储 分布式计算 数据管理
HDFS中的数据一致性是如何保证的?请解释数据一致性的概念和实现方式。
HDFS中的数据一致性是如何保证的?请解释数据一致性的概念和实现方式。
260 0
奇葩论文:分布式一致性协议-Paxos
奇葩论文:分布式一致性协议-Paxos
奇葩论文:分布式一致性协议-Paxos
|
调度 Apache
Apache Doris tablet 副本修复的原理、流程及问题定位
Apache Doris tablet 副本修复的原理、流程及问题定位
446 0
|
存储 算法 NoSQL
深入浅出理解分布式一致性Paxos算法
深入浅出理解分布式一致性Paxos算法
1111 0
深入浅出理解分布式一致性Paxos算法
|
存储 移动开发 运维
无主复制系统(3)-Quorum一致性的局限性
若有n个副本,且配置w和r,使得w + r > n w + r> nw+r>n,期望可以读到一个最新值。因为成功写入的节点集合和读取的节点集合必有重合,这样读取的节点中至少有一个具有最新值,如图-11。
142 0
|
存储 缓存 监控
ES写入过程和写入原理调优及如何保证数据的写一致性(下)
ES写入过程和写入原理调优及如何保证数据的写一致性(下)
下一篇
无影云桌面