MDS多活配置

简介: MDS多活配置 默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。   要配置mds多活,只需要修改cephfs系统的max_mds参数即可。

MDS多活配置

默认情况下,cephfs文件系统只配置一个活跃的mds进程。在大型系统中,为了扩展元数据性能,可以配置多个活跃的mds进程,此时他们会共同承担元数据负载。

要配置mds多活,只需要修改cephfs系统的max_mds参数即可。以下是未配置之前的集群状态

[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/1 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

1、配置多活

[root@test1 ~]# ceph mds set max_mds 2
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-2/2/2 up  {0=test2=up:active,1=test3=up:active}, 1 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean

2、恢复单活mds

[root@test1 ~]# ceph mds set max_mds 1
[root@test1 ~]# ceph mds deactivate 1
[root@test1 ~]# ceph -s
  cluster:
    id:     94e1228c-caba-4eb5-af86-259876a44c28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum test1,test2,test3
    mgr: test1(active), standbys: test3, test2
    mds: cephfs-1/1/1 up  {0=test2=up:active}, 2 up:standby
    osd: 18 osds: 18 up, 18 in
    rgw: 3 daemons active
 
  data:
    pools:   8 pools, 400 pgs
    objects: 305 objects, 3.04MiB
    usage:   18.4GiB used, 7.84TiB / 7.86TiB avail
    pgs:     400 active+clean
 
  io:
    client:   31.7KiB/s rd, 170B/s wr, 31op/s rd, 21op/s wr

相关文章
|
11月前
|
Prometheus 监控 Kubernetes
使用ASM网格拓扑观测多集群的流量控制与容灾场景
作为业内首个全托管Istio兼容的阿里云服务网格产品ASM,一开始从架构上就保持了与社区、业界趋势的一致性,控制平面的组件托管在阿里云侧,与数据面侧的用户集群独立。ASM产品是基于社区Istio定制实现的,在托管的控制面侧提供了用于支撑精细化的流量管理和安全管理的组件能力。通过托管模式,解耦了Istio组件与所管理的K8s集群的生命周期管理,使得架构更加灵活,提升了系统的可伸缩性。从2022年4月
|
关系型数据库 网络安全 数据库
MogDB/openGauss 手动部署(非OM工具)单机,主备,主备级联架构
MogDB/openGauss 手动部署(非OM工具)单机,主备,主备级联架构
355 0
|
存储 运维 持续交付
快速部署Ceph分布式高可用集群
Ceph是一个PB,EB级别的分布式存储系统,可以提供文件存储,对象存储、和块存储,它可靠性高,易扩展,管理简便,其中对象存储和块存储可以和其他云平台集成。一个Ceph集群中有Monitor节点、MDS节点(用于文件存储)、OSD守护进程。
353 0
|
安全 Linux 网络安全
如何快速部署Ceph分布式高可用集群(上)
如何快速部署Ceph分布式高可用集群(上)
718 0
如何快速部署Ceph分布式高可用集群(上)
如何快速部署Ceph分布式高可用集群(下)
如何快速部署Ceph分布式高可用集群(下)
346 0
如何快速部署Ceph分布式高可用集群(下)
|
存储 块存储
部署Ceph分布式高可用集群中篇(上)
部署Ceph分布式高可用集群中篇(上)
210 0
部署Ceph分布式高可用集群中篇(上)
|
网络协议 块存储
部署Ceph分布式高可用集群中篇(下)
部署Ceph分布式高可用集群中篇(下)
255 0
部署Ceph分布式高可用集群中篇(下)
部署Ceph分布式高可用集群中篇(中)
部署Ceph分布式高可用集群中篇(中)
147 0
部署Ceph分布式高可用集群中篇(中)
|
存储 弹性计算 负载均衡
基于传统负载均衡实例CLB和命令行接口CLI搭建跨可用区的高可用集群系统
利用英诺天玑的实时数据镜像复制功能,可以在两个ECS实例之间实时同步数据;利用英诺天玑的丰富的深层次健康状态检查程序,可以检测到影响业务运行的进程级别故障;英诺天玑在检测到故障后,将磁盘和业务服务切换到备机后,可以调用阿里云命令行接口(CLI)在数秒内完成负载均衡的后端ECS实例列表。
574 1
基于传统负载均衡实例CLB和命令行接口CLI搭建跨可用区的高可用集群系统
|
弹性计算 Kubernetes 安全
阿里云服务网格ASM之多集群管理:同 VPC下的多个集群
通过服务网格 ASM,可以将一个应用的服务组件部署在同 VPC 的多个集群上。本文以 Bookinfo 应用为例,介绍如何将该应用部署到包含两个集群的 ASM 实例。
1172 0
阿里云服务网格ASM之多集群管理:同 VPC下的多个集群