MDS多活配置

简介: MDS多活配置 默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。   要配置mds多活,只需要修改cephfs系统的max_mds参数即可。

MDS多活配置

默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。

要配置mds多活,只需要修改cephfs系统的max_mds参数即可。以下是未配置之前的集群状态

[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/1 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
AI 代码解读

1、配置多活

[root@test1 ~]# ceph mds set max_mds 2
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/2 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
AI 代码解读

2、恢复单活mds

[root@test1 ~]# ceph mds set max_mds 1
[root@test1 ~]# ceph mds deactivate 1
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-1/1/1 up  {0=test2=up:active}, 2 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
 
  io:
    client:   31.7KiB/s rd, 170B/s wr, 31op/s rd, 21op/s wr
AI 代码解读

相关文章
|
6月前
|
Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容
这篇文章是关于Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容的详细教程,涵盖了OSD的基础操作、节点缩容的步骤和实战案例以及OSD节点扩容的基本流程和实战案例。
235 6
|
6月前
|
ceph集群的OSD设备扩缩容实战指南
这篇文章详细介绍了Ceph集群中OSD设备的扩容和缩容过程,包括如何添加新的OSD设备、如何准备和部署,以及如何安全地移除OSD设备并从Crushmap中清除相关配置。
289 4
架构设计|基于 raft-listener 实现实时同步的主备集群
本文介绍如何从数据库内核角度建立一套实时同步的主备集群,确保线上业务的高可用性和可靠性。本系统采用双 AZ 主备容灾机制,并要求数据与 schema 实时同步,同步时延平均在 1 秒内,p99 在 2 秒内。此外,系统支持高效的自动或手动主备切换,并能在切换过程中恢复丢失数据。
169 0
快速部署Ceph分布式高可用集群
Ceph是一个PB,EB级别的分布式存储系统,可以提供文件存储,对象存储、和块存储,它可靠性高,易扩展,管理简便,其中对象存储和块存储可以和其他云平台集成。一个Ceph集群中有Monitor节点、MDS节点(用于文件存储)、OSD守护进程。
460 0
如何快速部署Ceph分布式高可用集群(下)
如何快速部署Ceph分布式高可用集群(下)
403 0
如何快速部署Ceph分布式高可用集群(下)
部署Ceph分布式高可用集群中篇(中)
部署Ceph分布式高可用集群中篇(中)
208 0
部署Ceph分布式高可用集群中篇(中)
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等