ceph基本操作:
/etc/init.d/ceph -a start/stop //即在所有节点上执行
单个操作:
start/stop ceph-osd id={id}
start/stop ceph-mon id={hostname}
start/stop ceph-mds id={hostname}
集群监控:监控osd状态、monitor status、placement组(pg)、元数据服务器状态;
#ceph //进入ceph会话模式
ceph> health
ceph> status
ceph> quorum_status //??
ceph> mon-status
实时监控集群:
#ceph -w
#ceph osd stat //检测osd的状态
#ceph osd dump //检测osd的详细信息
#ceph osd tree //根据Crush Map查看osd的状态
monitor监控:
#ceph mon stat
#ceph mon dump
#ceph quorum_status
mds监控:
#ceph mds stat
#ceph mds dump
使用admin socket
ceph管理员通过一个Socket接口查询一个守护进程,默认情况下,在/var/run/ceph下
#ceph --admin-daemon /var/run/ceph/{socket-name}
#ceph --admin-daemon /var/run/ceph/{socket-name} help
监控守护进程OSD的4中状态:
In----Out (是否在集群里面)
Up----Down (是否是开启状态)
pg集群:(placement groups)
查看pg列表
#ceph pg dump
#ceph pg stat
#ceph pg dump -o {filename} --format=json #输出json格式,并保持文件
查看pg map 及 参数
#ceph pg map {pg-num}
#获取池子副本个数:
#ceph osd pool get POOLNAME size
#查看osd池子个数
ceph osd lspools
#池子名字必须是两次
ceph osd pool delete {pool-name} {pool-name} --yes-i-really-really-mean-it
du -sh /var/local //查看目录下所有文件大小
从crush map中移除osd的信息
ceph osd out osd.x
ceph osd crush remove osd.x
ceph auth del osd.x
ceph osd down osd.x
stop ceph-osd id=x
ceph osd rm osd.x