ceph增加osd流程

简介: 假如需要新增一个主机名:osd4 ip:192.168.0.110的OSD1.在osd4创建挂载目录及放置配置文件的目录 ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机) mkdir /ceph/osd.4 mkdir /etc/ceph 2.在osd4上格式化ext4的sda3分区,挂载分区。
假如需要新增一个主机名:osd4 ip:192.168.0.110的OSD
1.在osd4创建挂载目录及放置配置文件的目录
ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机)
mkdir /ceph/osd.4
mkdir /etc/ceph
2.在osd4上格式化ext4的sda3分区,挂载分区。
mkfs.ext4 /dev/sda3
mount -o user_xattr /dev/sda3 /ceph/osd.4
3.将mon主机的id_dsa.pub拷至osd4主机,实现免密码访问
scp /root/.ssh/id_dsa.pub 192.168.0.110:/root/.ssh/id_dsa.pub102
ssh 192.168.0.110
cd /root/.ssh
cat id_dsa.pub102 > authorized_keys
4.在mon主机上修改ceph.conf配置文件
vi /etc/ceph/ceph.conf
[osd.4]
host = osd4
deves = /dev/sda3
5.复制修改后的ceph.conf文件至每一个MDS和OSD节点并复制一份至/usrlocal/etc/ceph/
scp /etc/ceph/ceph.conf 192.168.0.110:/etc/ceph/ (这里只写这一个,不要忘记同步其他节点的配置文件)
6.创建osd
ceph osd create osd.4
7.加载OSD数据目录
ssh 192.168.0.110
ceph-osd -i osd.4 --mkfs --mkkey
下面更新crushmap后,新增的osd就可以存放数据了。
8.创建当前正在使用的crushmap
ceph osd getcrushmap -o map (map 是自定义的一个名称,下面需要用到这个名称)
9.反编译后导出crushmap
crushtool -d map -o /root/map.txt (map.txt是导出的文件名)
10.修改map.txt

相关文章
|
17天前
|
存储 块存储
Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容
这篇文章是关于Ceph Reef(18.2.X)集群的OSD管理基础及OSD节点扩缩容的详细教程,涵盖了OSD的基础操作、节点缩容的步骤和实战案例以及OSD节点扩容的基本流程和实战案例。
28 6
|
17天前
|
Shell 容器
Ceph Reef(18.2.X)访问ceph集群的方式及管理员节点配置案例
这篇文章是关于Ceph Reef(18.2.X)版本中访问ceph集群的方式和管理员节点配置的案例,介绍了使用cephadm shell的不同方式访问集群和如何配置管理节点以方便集群管理。
26 5
|
18天前
|
块存储
ceph-deploy部署ceph分部署集群
这篇博客详细介绍了如何使用ceph-deploy工具部署Ceph集群,包括环境准备、配置hosts、免密登录、时间同步、添加块设备、部署mon、mgr组件以及初始化OSD节点的步骤,并提供了在部署过程中可能遇到的问题和解决方案。
23 4
|
存储 文件存储 对象存储
CEPH-初识篇】ceph详细介绍+“ 一 ” 篇解决ceph集群搭建, “ 三 ” 大(对象、块、文件)存储使用(下)
CEPH-初识篇】ceph详细介绍+“ 一 ” 篇解决ceph集群搭建, “ 三 ” 大(对象、块、文件)存储使用(下)
338 0
|
存储 算法 关系型数据库
【CEPH-初识篇】ceph详细介绍+“ 一 ” 篇解决ceph集群搭建, “ 三 ” 大(对象、块、文件)存储使用(上)
【CEPH-初识篇】ceph详细介绍+“ 一 ” 篇解决ceph集群搭建, “ 三 ” 大(对象、块、文件)存储使用
1476 0
|
存储 Kubernetes 测试技术
k8s使用ceph实现动态持久化存储
简介 本文章介绍如何使用ceph为k8s提供动态申请pv的功能。ceph提供底层存储功能,cephfs方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany ,ReadWriteMany ,RBD支持ReadWriteOnce,ReadOnlyMany两种模式 访问模式只是能力描述,并不是强制执行的,对于没有按pvc声明的方式使用pv,存储提供者应该负责访问时的运行错误。
3453 0
|
存储 安全 关系型数据库
如何从 Ceph (Luminous) 集群中安全移除 OSD
OSD.png 工作中需要从 Ceph 的集群中移除一台存储服务器,挪作他用。Ceph 存储空间即使在移除该存储服务器后依旧够用,所以操作是可行的,但集群已经运行了很长时间,每个服务器上都存储了很多数据,在数据无损的情况下移除,看起来也不简单。
1708 0