在服务器资源不足,或者测试环境下,Ceph 通常只有一个节点,就算有多个服务器组成集群,往往存储服务器也往往只有一台,Ceph 的默认配置下,只能设置单数据备份,也就是说数据只存了一份,如果磁盘坏了,数据就丢了。虽然测试环境数据没那么重要,总保不齐就会有关键数据放在上面,所以还是要想办法在资源有限的条件下实现数据的高可用,另外这也是一个很好的进一步理解 Ceph 概念的好机会,接下来就让我们来看看是如何实现的吧。
1. CRUSH map 规则介绍
为了把这件事说清楚,我们需要了解 CRUSH map 一些具体规则,所以先来看一下默认的 CRUSH map。
$ cat crush-map-decompiled
...
# buckets
host rbd-osd1 {
id -3 # do not change unnecessarily
id -4 class hdd # do not change unnecessarily
# weight 130.992
alg straw2
hash 0 # rjenkins1
item osd.0 weight 5.458
item osd.1 weight 5.458
item osd.2 weight 5.458
item osd.3 weight 5.458
item osd.4 weight 5.458
item osd.5 weight 5.458
item osd.6 weight 5.458
item osd.7 weight 5.458
item osd.8 weight 5.458
item osd.9 weight 5.458
item osd.10 weight 5.458
item osd.11 weight 5.458
item osd.12 weight 5.458
item osd.13 weight 5.458
item osd.14 weight 5.458
item osd.15 weight 5.458
item osd.16 weight 5.458
item osd.17 weight 5.458
item osd.18 weight 5.458
item osd.19 weight 5.458
item osd.20 weight 5.458
item osd.21 weight 5.458
item osd.22 weight 5.458
item osd.23 weight 5.458
}
root default {
id -1 # do not change unnecessarily
id -2 class hdd # do not change unnecessarily
# weight 130.992
alg straw2
hash 0 # rjenkins1
item rbd-osd1 weight 130.992
}
# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}
我们可以看到,Ceph 集群中只有一台存储服务器:rbd-osd1,上面有 24 块硬盘。
要实现单存储上多备份,关键就在这行配置上:step chooseleaf firstn 0 type host
这句话的意思是,从选定的 bucket(也就是 host rbd-osd1)中,获取默认个(也就是 osd_pool_default_size 个,这是在 /etc/ceph/ceph.conf 中配置的)叶子节点(也就是 rbd-osd1 中包含的那 24 个 item),叶子节点的类型为 host。
默认配置出问题的地方就是在叶子节点的类型上,osd_pool_default_size 默认值是三,也就是说,需要找三个 host 类型的 bucket,host 对应的就是存储服务器,我们现在只有一个,当然不满足需求了。从 ceph 的状态上也能看出来,所有的 OSD 都因为 OSD 数量不足,处于 active+undersized 状态。
$ ceph -s
...
data:
pools: 1 pools, 64 pgs
objects: 0 objects, 0 bytes
usage: 25001 MB used, 130 TB / 130 TB avail
pgs: 64 active+undersized
2. 修改 CRUSH map
了解到问题所在,接下来就动手修改吧,CRUSH map 支持两种修改方式,一种是命令行,优点是单条命令很简单,缺点是不够直观;第二种是手动修改配置文件,优点是所见即所得,缺点是麻烦一点,需要先导出,解码,修改,最后再编码,导入。这里因为修改的内容颇为具体,所以采用第二种方法。
先将 CRUSH map 导出到文件 crush-map 中。
$ ceph osd getcrushmap -o crush-map
然后解码,并输出到文件 crush-map-decompiled 中。
$ crushtool -d crush-map -o crush-map-decompiled
修改 crush-map-decompiled,将 type 改为 osd,即可
$ cat crush-map-decompiled
...
# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type osd
step emit
}
将改好的文件编码到文件 crush-map 中。
$ crushtool -c crush-map-decompiled -o crush-map
最后导入。
$ ceph osd setcrushmap -o crush-map
3. 修改 /etc/ceph/ceph.conf
不过事情没有那么简单,还需要配合 ceph.conf 的修改才行,我们要修改 osd_crush_chooseleaf_type。
这个参数每个取值的意义在 Ceph 的官方文档中,有明确的说明,0 是给单节点的 ceph 集群使用的,而 1 是默认值,所以我们需要修改。
#Choose a reasonable crush leaf type.
#0 for a 1-node cluster.
#1 for a multi node cluster in a single rack
#2 for a multi node, multi chassis cluster with multiple hosts in a chassis
#3 for a multi node cluster with hosts across racks, etc.
osd crush chooseleaf type = {n}
集群是使用 ceph-deploy 来部署的,所以需要修改 ceph-deploy 目录下的文件,然后推送到 ceph 集群中的服务器中:
$ cat ceph.conf
...
osd_crush_chooseleaf_type = 0
...
$ ceph-deploy --overwrite-conf config push rbd-master1 rbd-osd1
4. 动态修改 ceph 配置
至此问题还是没有完全解决,原因是配置文件的变动需要,进程的重启才能生效,不重启有没有办法让改动生效呢?有的,需要使用的 ceph daemon 命令。
sudo ceph daemon mon.rbd-master1 config set osd_pool_default_size 0
5. 参考文档
- MANUALLY EDITING A CRUSH MAP
- POOL, PG AND CRUSH CONFIG REFERENCE
- Another method to dynamically change a Ceph configuration
- Bug 1492248 - Need Better Error Message when OSD count is less than osd_pool_default_size
- CONFIGURING CEPH
- CRUSH MAPS
- COMMON SETTINGS
- [ceph-users] CRUSH rule for 3 replicas across 2 hosts