MDS多活配置

简介: MDS多活配置 默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。   要配置mds多活,只需要修改cephfs系统的max_mds参数即可。

MDS多活配置

默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。

要配置mds多活,只需要修改cephfs系统的max_mds参数即可。以下是未配置之前的集群状态

[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/1 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

1、配置多活

[root@test1 ~]# ceph mds set max_mds 2
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/2 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

2、恢复单活mds

[root@test1 ~]# ceph mds set max_mds 1
[root@test1 ~]# ceph mds deactivate 1
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-1/1/1 up  {0=test2=up:active}, 2 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
 
  io:
    client:   31.7KiB/s rd, 170B/s wr, 31op/s rd, 21op/s wr

相关文章
|
3月前
|
存储 块存储
Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容
这篇文章是关于Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容的详细教程,涵盖了OSD的基础操作、节点缩容的步骤和实战案例以及OSD节点扩容的基本流程和实战案例。
114 6
|
3月前
|
块存储
ceph集群的OSD设备扩缩容实战指南
这篇文章详细介绍了Ceph集群中OSD设备的扩容和缩容过程,包括如何添加新的OSD设备、如何准备和部署,以及如何安全地移除OSD设备并从Crushmap中清除相关配置。
222 4
|
5月前
分布式篇问题之集群(Cluster)模式主控节点的高可用性问题如何解决
分布式篇问题之集群(Cluster)模式主控节点的高可用性问题如何解决
|
7月前
|
存储 Kubernetes 容灾
Velero 系列文章(五):基于 Velero 的 Kubernetes 集群备份容灾生产最佳实践
Velero 系列文章(五):基于 Velero 的 Kubernetes 集群备份容灾生产最佳实践
|
网络安全
OushuDB 管理指南 集群高可用(2)
OushuDB 管理指南 集群高可用(2)
83 0
OushuDB 管理指南 集群高可用(3)
OushuDB 管理指南 集群高可用(3)
75 0
|
存储 Java 关系型数据库
OushuDB 管理指南 集群高可用(1)
OushuDB 管理指南 集群高可用(1)
105 0
如何快速部署Ceph分布式高可用集群(下)
如何快速部署Ceph分布式高可用集群(下)
386 0
如何快速部署Ceph分布式高可用集群(下)
|
安全 Linux 网络安全
如何快速部署Ceph分布式高可用集群(上)
如何快速部署Ceph分布式高可用集群(上)
806 0
如何快速部署Ceph分布式高可用集群(上)