[前提是已有一个基本可用的ceph集群]
一,在指定节点上部署mds:
ceph-deploy mds create ceph-node1
二,新建两个存储池,用于保存cephfs的数据和元数据。
ceph osd pool create cephfs_data 64 ceph osd pool create cephfs_metadata 64
三,创建好存储池后,可以用 fs new 命令创建文件系统。
ceph fs new cephfs cephfs_metadata cephfs_data
四,文件系统创建完毕后, 可以检查MDS 服务器是否达到 active 状态。
ceph mds stat
输出:
e11: 1/1/1 up {0=ceph-node1=up:active}
五,因为默认都会用cephx 认证,所以先建好要挂载的本地目录以及获取admin的加密钥(在生产环境中,建新用户来指定不同用途吧),又或者是生成一个secret文件,不用在命令行输入
ceph-authtool --print-key /etc/ceph/ceph.client.admin.keyring mount -t ceph 192.168.1.112:6789:/ /mnt/mycephfs -o name=admin,secret=AQCu845ZXt0dExAAatk28a2ILAg4XijF3ax0vg== mount -t ceph 192.168.1.111:6789:/ /mnt/mycephfs -o name=admin,secretfile=/etc/ceph/admin.secret
六,此时,就可以在挂载目录下像操作普通文件一样操作cephfs,而生成的文件可以在ods里查看。但无意义,只是用来管理的一些东东。
rados -p cephfs_metadata ls rados -p cephfs_data ls ceph osd map cephfs_data 10000000000.00000000
七,卸载 Ceph 文件系统,可以用 unmount 命令。查看文件系统,可以用df -h试下。
umount /mnt/mycephfs df -h
输出的东东如下: