MDS多活配置

简介: MDS多活配置 默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。   要配置mds多活,只需要修改cephfs系统的max_mds参数即可。

MDS多活配置

默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。

要配置mds多活,只需要修改cephfs系统的max_mds参数即可。以下是未配置之前的集群状态

[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/1 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

1、配置多活

[root@test1 ~]# ceph mds set max_mds 2
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/2 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

2、恢复单活mds

[root@test1 ~]# ceph mds set max_mds 1
[root@test1 ~]# ceph mds deactivate 1
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-1/1/1 up  {0=test2=up:active}, 2 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
 
  io:
    client:   31.7KiB/s rd, 170B/s wr, 31op/s rd, 21op/s wr

相关文章
|
3月前
|
存储 块存储
Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容
这篇文章是关于Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容的详细教程,涵盖了OSD的基础操作、节点缩容的步骤和实战案例以及OSD节点扩容的基本流程和实战案例。
149 6
|
3月前
|
块存储
ceph集群的OSD设备扩缩容实战指南
这篇文章详细介绍了Ceph集群中OSD设备的扩容和缩容过程,包括如何添加新的OSD设备、如何准备和部署,以及如何安全地移除OSD设备并从Crushmap中清除相关配置。
237 4
|
3月前
|
存储 Kubernetes 数据安全/隐私保护
k8s对接ceph集群的分布式文件系统CephFS
文章介绍了如何在Kubernetes集群中使用CephFS作为持久化存储,包括通过secretFile和secretRef两种方式进行认证和配置。
122 5
|
5月前
|
存储 关系型数据库 算法框架/工具
Ceph 架构以及部署
Ceph 架构以及部署
207 26
|
5月前
分布式篇问题之集群(Cluster)模式主控节点的高可用性问题如何解决
分布式篇问题之集群(Cluster)模式主控节点的高可用性问题如何解决
|
存储 缓存 运维
openstack对接ceph存储
openstack对接ceph存储
|
存储 Kubernetes API
Kubernetes Master节点 灾备恢复操作指南
本文档简述了Kubernetes主节点灾备恢复的相关步骤,供在发生k8s master崩溃时操作。 就算是在k8s里部署了etcd群集, 主节点控制组件的高可用节点,灾备恢复也是必须要实现的操作,才能形成完备的企业级服务方案。
9820 0
|
存储 关系型数据库 网络安全
手动部署ceph octopus集群
手动部署ceph octopus集群
手动部署ceph octopus集群
|
网络协议 块存储
部署Ceph分布式高可用集群中篇(下)
部署Ceph分布式高可用集群中篇(下)
313 0
部署Ceph分布式高可用集群中篇(下)
|
存储 块存储
部署Ceph分布式高可用集群中篇(上)
部署Ceph分布式高可用集群中篇(上)
261 0
部署Ceph分布式高可用集群中篇(上)