Cassandra集群删除宕机节点

简介: Cassandra集群删除宕机节点

1.前言


因为项目要处理大数据量的环境数据,所以我们采用了Cassandra集群的方式来存储我们的数据,但是前几天集群中有一台Cassandra突然崩掉了,报错原因如下:


20201023152552692.png


看了一下网上的说法,具体原因就是提交日志文件出错了,把 commitlog 文件下的所有提交日志全删掉就行了,之后up自己也尝试了


20201023152719316.png


但是它却提示我无法删除,之后自己百度了半天看了网上这篇文章https://blog.csdn.net/luguifang2011/article/details/73792280感觉可行,于是自己又去尝试了一遍,但是还是没能解决问题,于是我就选择了使用了最笨的方法,就是直接在集群的配置文件里面删除这个节点,但是这个做法非常不建议大家做,不到万不得已,千万不要删节点.

up好菜.


20201023155017783.png


2.删除节点


删除节点就比较简单了,只要我们在一台正常的节点上操作就行了.


2.1启动Cassandra服务


这里我们进入相应的Cassandra的 bin 目录下,然后通过以下命令启动Cassandra


./cassandra


2.2查看集群信息


通过以下命令即可


nodetool describecluster


20201023153818516.png


2.3查看节点详细信息


./nodetool status


这里我们就能够看到集群里面各个节点的状态

20201023153451231.png

出现DN标志的就说明是已经宕机的节点了,也就是我们需要删除的节点


2.4删除宕机节点


我们通过以下即可删除


./nodetool removenode 宕机节点的Host ID


Host ID可以通过上面节点的详细查看到,这个过程会比较的漫长,查阅网上的资料,是这样的解释的,这里删除的节点并不是真的直接删除该节点,而是先将该节点上的数据全部迁移到其他的节点上面之后,才开始删除这个节点,所以时间会比较的漫长

如果想 关心删除节点状态 的话,可以通过以下的命令进行查看


nodetool removenode status


如果删除过程实在是太长的话,并且数据无关紧要,可以丢弃的情况下,可以通过以下的命令 直接删除该宕机节点


nodetool removenode force


2.5检查是否删除


之后我们就可以通过之前的命令 ./nodetool status 重新查看节点的状态,如果是下面的界面,


2020102315474790.png


那么节点就已经成功删除了,如果还在的话,建议先重启一下Cassandra,之后再查看节点的状态,重复几次应该就能够正常删除了.

都看到这儿了,如果觉得对你有帮助的话,可以关注我的公众号,新人up需要你的支持.


相关文章
|
存储 缓存 负载均衡
高可用mongodb集群(分片+副本):规划及部署
高可用mongodb集群(分片+副本):规划及部署
823 0
|
9月前
|
数据库
MongoDB-复制集投票节点
?> 投票节点就是不保存任何数据, 只参与投票的节点
50 0
|
5月前
|
Kubernetes Cloud Native 虚拟化
云原生|kubernetes|找回丢失的etcd集群节点---etcd节点重新添加,扩容和重新初始化k8s的master节点
云原生|kubernetes|找回丢失的etcd集群节点---etcd节点重新添加,扩容和重新初始化k8s的master节点
104 0
|
7月前
|
NoSQL Redis 容器
Redis集群更换节点IP后如何恢复集群并保留完整集群数据
Redis集群更换节点IP后如何恢复集群并保留完整集群数据
117 0
|
安全 NoSQL MongoDB
高可用mongodb集群(分片+副本):shard2副本重建
高可用mongodb集群(分片+副本):shard2副本重建
392 0
|
NoSQL 安全 MongoDB
高可用mongodb集群(分片+副本):用户权限配置
高可用mongodb集群(分片+副本):用户权限配置
368 0
|
运维 NoSQL MongoDB
(2)MongoDB副本集自动故障转移原理(含客户端)
前文我们搭建MongoDB三成员副本集,了解集群基本特性,今天我们围绕下图聊一聊背后的细节。
(2)MongoDB副本集自动故障转移原理(含客户端)
|
存储 NoSQL Redis
Redis集群:主从节点添加和删除
Redis集群:主从节点添加和删除
533 0
Redis集群:主从节点添加和删除
|
NoSQL Redis
Redis Cluster集群收缩主从节点详细教程
文章目录 Redis Cluster集群收缩主从节点 1.Cluster集群收缩概念 2.将6390主节点从集群中收缩 2.1.计算需要分给每一个节点的槽位数 2.2.分配1365个槽位给192.168.81.210的6380节点 2.3.分配1365个槽位给192.168.81.220的6380节点 2.4.分配1365个槽位给192.168.81.230的6380节点 2.5.查看当前集群槽位分配 3.验证数据迁移过程是否导致数据异常 4.将下线的主节点从集群中删除 4.1.删除节点 4.2.调整主从交叉复制 4.3.当节点存在数据无法删除 5.将下线主机清空集群信息
223 0
Redis Cluster集群收缩主从节点详细教程
|
分布式计算 Hadoop 分布式数据库
因为主机时间不同步导致的hbase zookeeper 节点宕机奔溃 一例
前几天 ,升级hadoop/hbase 集群, 新 添加了几十台机器, 硬件部门,安装好主机os 后就交付给我们了, 安装好软件环境,配置好,就启动接入集群了,运行了一个礼拜,系统运行正常。 昨天的时候淘汰一台旧机器,上面跑了zookeeper , 需要准备一个新的zookeeper 节点来代替,如实就找了一台hbase 节点上启动了zookeeper 这个时候问题来了, zookeeper 启动后总是在报错, 一直在确定自己的状态。
525 0