Ceph: too many PGs per OSD

简介:

一、故障现象:

查看ceph的集群状态:too many PGs per OSD (698 > max 300)

1
2
3
4
5
6
7
8
9
10
11
12
13
# ceph -s
     cluster e2ca994a-00c4-477f-9390-ea3f931c5062
      health HEALTH_WARN
             too many PGs per OSD (698 > max 300)
      monmap e1: 3 mons at {hz-01-ops-tc-ceph-02=172.16.2.231:6789 /0 ,hz-01-ops-tc-ceph-03=172.16.2.172:6789 /0 ,hz-01-ops-tc-ceph-04=172.16.2.181:6789 /0 }
             election epoch 14, quorum 0,1,2 hz-01-ops-tc-ceph-03,hz-01-ops-tc-ceph-04,hz-01-ops-tc-ceph-02
      osdmap e54: 5 osds: 5 up, 5  in
             flags sortbitwise,require_jewel_osds
       pgmap v1670: 1164 pgs, 3 pools, 14640 kB data, 22 objects
             240 MB used, 224 GB / 224 GB avail
                 1164 active+clean
# ceph --show-config  | grep mon_pg_warn_max_per_osd
mon_pg_warn_max_per_osd = 300

二、调整ceph配置信息

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
# cd /my-cluster
# vim ceph.conf 
添加如下参数:
mon_pg_warn_max_per_osd = 1024
# ceph-deploy --overwrite-conf config push hz-01-ops-tc-ceph-04 hz-01-ops-tc-ceph-02 hz-01-ops-tc-ceph-03
[ceph_deploy.conf][DEBUG ] found configuration  file  at:  /root/ .cephdeploy.conf
[ceph_deploy.cli][INFO  ] Invoked (1.5.39):  /usr/bin/ceph-deploy  --overwrite-conf config push hz-01-ops-tc-ceph-04 hz-01-ops-tc-ceph-02 hz-01-ops-tc-ceph-03
[ceph_deploy.cli][INFO  ] ceph-deploy options:
[ceph_deploy.cli][INFO  ]  username                      : None
[ceph_deploy.cli][INFO  ]  verbose                       : False
[ceph_deploy.cli][INFO  ]  overwrite_conf                : True
[ceph_deploy.cli][INFO  ]  subcommand                    : push
[ceph_deploy.cli][INFO  ]  quiet                         : False
[ceph_deploy.cli][INFO  ]  cd_conf                       : <ceph_deploy.conf.cephdeploy.Conf instance at 0x7fb51b241320>
[ceph_deploy.cli][INFO  ]  cluster                       : ceph
[ceph_deploy.cli][INFO  ]  client                        : [ 'hz-01-ops-tc-ceph-04' 'hz-01-ops-tc-ceph-02' 'hz-01-ops-tc-ceph-03' ]
[ceph_deploy.cli][INFO  ]  func                          : < function  config at 0x7fb51bac8320>
[ceph_deploy.cli][INFO  ]  ceph_conf                     : None
[ceph_deploy.cli][INFO  ]  default_release               : False
[ceph_deploy.config][DEBUG ] Pushing config to hz-01-ops-tc-ceph-04
[hz-01-ops-tc-ceph-04][DEBUG ] connected to host: hz-01-ops-tc-ceph-04 
[hz-01-ops-tc-ceph-04][DEBUG ] detect platform information from remote host
[hz-01-ops-tc-ceph-04][DEBUG ] detect machine  type
[hz-01-ops-tc-ceph-04][DEBUG ] write cluster configuration to  /etc/ceph/ {cluster}.conf
[ceph_deploy.config][DEBUG ] Pushing config to hz-01-ops-tc-ceph-02
[hz-01-ops-tc-ceph-02][DEBUG ] connected to host: hz-01-ops-tc-ceph-02 
[hz-01-ops-tc-ceph-02][DEBUG ] detect platform information from remote host
[hz-01-ops-tc-ceph-02][DEBUG ] detect machine  type
[hz-01-ops-tc-ceph-02][DEBUG ] write cluster configuration to  /etc/ceph/ {cluster}.conf
[ceph_deploy.config][DEBUG ] Pushing config to hz-01-ops-tc-ceph-03
[hz-01-ops-tc-ceph-03][DEBUG ] connected to host: hz-01-ops-tc-ceph-03 
[hz-01-ops-tc-ceph-03][DEBUG ] detect platform information from remote host
[hz-01-ops-tc-ceph-03][DEBUG ] detect machine  type
[hz-01-ops-tc-ceph-03][DEBUG ] write cluster configuration to  /etc/ceph/ {cluster}.conf

在mon节点上重启服务:

# systemctl restart ceph-mon.target

三、然后在管理节点上再次查看集群

1
2
3
4
5
6
7
8
9
10
11
12
# ceph -s
     cluster e2ca994a-00c4-477f-9390-ea3f931c5062
      health HEALTH_OK
      monmap e1: 3 mons at {hz-01-ops-tc-ceph-02=172.16.2.231:6789 /0 ,hz-01-ops-tc-ceph-03=172.16.2.172:6789 /0 ,hz-01-ops-tc-ceph-04=172.16.2.181:6789 /0 }
             election epoch 20, quorum 0,1,2 hz-01-ops-tc-ceph-03,hz-01-ops-tc-ceph-04,hz-01-ops-tc-ceph-02
      osdmap e54: 5 osds: 5 up, 5  in
             flags sortbitwise,require_jewel_osds
       pgmap v1779: 1164 pgs, 3 pools, 14640 kB data, 22 objects
             240 MB used, 224 GB / 224 GB avail
                 1164 active+clean
# ceph --show-config  | grep mon_pg_warn_max_per_osd
mon_pg_warn_max_per_osd = 1024









本文转自 冰冻vs西瓜 51CTO博客,原文链接:http://blog.51cto.com/molewan/2061192,如需转载请自行联系原作者
目录
相关文章
|
4月前
|
存储 算法框架/工具
Ceph提供nfs服务
Ceph提供nfs服务
62 6
|
4月前
|
存储 缓存 关系型数据库
RBD与Cephfs
RBD与Cephfs
85 6
|
6月前
|
存储 关系型数据库 API
|
存储 缓存 运维
Ceph 是什么
Ceph 是什么
142 0
|
存储 算法 Ubuntu
Ceph 心得分享
##Ceph ceph :统一开、分布式的云存储 统一指的是 ceph 在业内同 openstack 、swift 一样可以当作 块存储、文件存储、对象存储来使用。并自带了分布式的特性,保证了生产业务的高可用。其主要核心高频的使用点就是 Ceph 的块存储以及对象存储,我们逐一介绍。 ###块存储特性 * 通过 ceph clients 使用块设备 * 精简配置 * 动态扩容
572 0
Ceph 心得分享
|
存储 Kubernetes 文件存储
CephFS 使用
Ceph 之前介绍了 RBD 的使用方法,有了 RBD,远程磁盘挂载的问题就解决了,但 RBD 的问题是不能多个主机共享一个磁盘,如果有一份数据很多客户端都要读写该怎么办呢?这时 CephFS 作为文件系统存储解决方案就派上用场了。
2364 0
|
块存储
Ceph-disk手动添加OSD
Ceph-disk手动添加OSD   最近部署了L版的ceph,在进行扩容时,发现手动使用ceph-disk命令出现了问题,根据ceph官网说明,L版要用ceph-volume,然而目前生产环境并未使用这种方式来进行配置,但是L版的使用ceph-disk prepare时创建出来的osd和journal分区效果并不会像J版那样根据配置文件里面的配置来进行创建。
5970 0
|
Ubuntu 开发工具 块存储
|
Ubuntu 开发工具 块存储