ceph 安装

简介:

ceph 快速安装


架构 

ceph-deploy/ceph-admin: 192.168.1.214

ceph node 192.168.1.215/216/217

mon 215

osd 216/217



一、操作1.214

ceph-deploy : 192.168.1.214



安装rpm源

1
yum  install  -y yum-utils &&  sudo  yum-config-manager --add-repo https: //dl .fedoraproject.org /pub/epel/7/x86_64/  &&  sudo  yum  install  --nogpgcheck -y epel-release &&  sudo  rpm -- import  /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7  &&  sudo  rm  /etc/yum .repos.d /dl .fedoraproject.org*


vim /etc/yum.repos.d/ceph.repo ceph-release 是稳定版的版本名, distro 是发行版名字


举例

1
2
3
4
5
6
7
8
baseurl=http: //download .ceph.com /rpm-jewel/el7/noarch 
[ceph-noarch]
name=Ceph noarch packages
baseurl=http: //download .ceph.com /rpm- {ceph-release}/{distro} /noarch
enabled=1
gpgcheck=1
type =rpm-md
gpgkey=https: //download .ceph.com /keys/release .asc



安装ceph-deploy 

1
yum  install  ceph-deploy -y


useradd ceph-admin

ssh-kengen

把生成的公钥拷贝到每个节点


ssh-copy-id cephcluster@192.168.1.215/216/217



简化 ssh 和 scp 的用法,不用每次执行ceph-deploy的时候指定username

1
2
3
4
5
6
7
8
9
10
11
12
vi  /home/ceph-admin/ . ssh /config
Host host215
    Hostname 192.168.1.215
    User cephcluster
Host host216
    Hostname 192.168.1.216
    User cephcluster
Host host217
    Hostname 192.168.1.217
    User cephcluster
    
chmod  600 config



ceph-node 


因为 ceph-deploy 不支持输入密码,所以在所有节点,创建用户,有sudo权限,

1
2
3
useradd  cephcluster
pssh -h testhost -i  "echo cephcluster|sudo passwd --stdin cephcluster"
sed   -i  '/wheel:x/s/$/,cephcluster/'  /etc/group


1
mkdir  -p  /home/cephcluster/ . ssh


集群命令


清除配置

1
2
ceph-deploy purgedata {ceph-node} [{ceph-node}]
ceph-deploy forgetkeys


用下列命令可以连 Ceph 安装包一起清除

1
ceph-deploy purge {ceph-node} [{ceph-node}]


1、创建集群

1
ceph-deploy new host215


2、配置文件设置

vi ceph.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
[global]
fsid = 9f08666b-6725-4593-90c0-b361ca17e924
mon_initial_members = host215
mon_host = 192.168.1.215
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
#修改osd 默认数量为2,之前是3
osd pool default size = 2
#公共网
public network = 192.168.1.0 /24
#集群网  OSD 将把心跳、对象复制和恢复流量路由到集群网,与单个网络相比这会提升性能
cluster network = 192.168.6.0 /22


3、安装集群

1
ceph-deploy  install  host214 host215 host216 host217



4、安装mon节点

1
ceph-deploy mon create-initial


有如下报错是因为 systemd版本太低,不支持enable service@写法,需要升级mon节点的systemd,

顺便把所有node节点也升级下,否则后面的激活osd 也会报错

1
2
3
4
5
6
7
yum  install  systemd -y
[host215][INFO  ] Running  command sudo  systemctl  enable  ceph.target
[host215][INFO  ] Running  command sudo  systemctl  enable  ceph-mon@host215
[host215][WARNIN] Failed to issue method call: No such  file  or directory
[host215][ERROR ] RuntimeError:  command  returned non-zero  exit  status: 1
[ceph_deploy.mon][ERROR ] Failed to execute  command : systemctl  enable  ceph-mon@host215
[ceph_deploy][ERROR ] GenericError: Failed to create 1 monitors


5、磁盘管理(osd)

查看磁盘

1
ceph-deploy disk list host216 host217


擦净磁盘(这是裸盘配置,一定要确实磁盘名称,这会删除所有数据)

1
2
ceph-deploy disk zap host217:sdb 
ceph-deploy disk zap host216:sdb



准备osd:

原始命令:

1
ceph-deploy osd prepare {node-name}:{data-disk-partition}[:{journal-disk-partition}]

data-disk-partition:是数据存储的地方

journal-disk-partition:是日志存储的地方


优化:可以把日志存储指定另外的驱动器,当然最好是另一块ssd,目前是把日志放到osd数据盘,但是有性能损耗

1
2
ceph-deploy osd prepare host216:sdb: /dev/ssd
ceph-deploy osd prepare host217:sdb: /dev/ssd


激活osd:

1
2
ceph-deploy osd activate host216:sdb1: /dev/ssd
ceph-deploy osd activate host217:sdb1: /dev/ssd


创建osd:

可以用 create 命令一次完成准备 OSD 、部署到 OSD 节点、并激活它。 create 命令是依次执行 prepare 和 activate 命令的集合

1
2
3
ceph-deploy osd create {node-name}:{disk}[:{path /to/journal }]
ceph-deploy osd create host216:sdb: /dev/ssd
ceph-deploy osd create host217:sdb: /dev/ssd



用 ceph-deploy 把配置文件和 admin 密钥拷贝到管理节点和 Ceph 节点,这样你每次执行 Ceph 命令行时就无需指定 monitor 地址和 ceph.client.admin.keyring 了。

1
ceph-deploy admin host214 host215 host216 host217


确保对 ceph.client.admin.keyring 有正确的操作权限

1
chmod  +r  /etc/ceph/ceph .client.admin.keyring


检查集群的健康状况

1
ceph health



扩展集群(将218 加入osd,216/217 添加mon)

218 加入集群,添加osd

安装ceph步骤同上

1
2
3
ceph-deploy  install  host218
ceph-deploy osd prepare host218:sdb: /dev/ssd
ceph-deploy osd activate host218:sdb1: /dev/ssd


216/217 添加mon

1
2
ceph-deploy mon add host216 
ceph-deploy mon add host217


查看mon状态

1
ceph quorum_status -- format  json-pretty
本文转自银狐博客51CTO博客,原文链接http://blog.51cto.com/foxhound/1793335如需转载请自行联系原作者

战狐
相关文章
|
存储 算法 关系型数据库
【CEPH-初识篇】ceph详细介绍、搭建集群及使用,带你认识新大陆
你好,我是无名小歌。 今天给大家分享一个分布式存储系统ceph。 什么是ceph? Ceph在一个统一的系统中独特地提供对象、块和文件存储。Ceph 高度可靠、易于管理且免费。Ceph 的强大功能可以改变您公司的 IT 基础架构和管理大量数据的能力。Ceph 提供了非凡的可扩展性——数以千计的客户端访问 PB 到 EB 的数据。ceph存储集群相互通信以动态复制和重新分配数据。
1128 0
【CEPH-初识篇】ceph详细介绍、搭建集群及使用,带你认识新大陆
|
4月前
|
存储 关系型数据库 API
|
6月前
|
存储 缓存 运维
Ceph 是什么
Ceph 是什么
87 0
|
存储 Prometheus 监控
使用cephadm安装ceph octopus
使用cephadm安装ceph octopus
使用cephadm安装ceph octopus
|
网络协议 应用服务中间件 API
CentOS7.5 手动部署Ceph RGW
目    录 1     设备列表... 1 2     Ceph RGW 部署... 1 2.1     使用civetweb配置... 2 2.2     使用nginx配置... 5   本文主要记录一下手动部署rgw的过程,环境是使用的之前手动部署的ceph环境,之前的环境部署可以参考以下链接https://yq.aliyun.com/articles/604372   Ceph RGW(即RADOS Gateway)是Ceph对象存储网关服务,是基于LIBRADOS接口封装实现的FastCGI服务,对外提供存储和管理对象数据的Restful API。
7645 0
|
Kubernetes 安全 Linux
|
存储 算法 Ubuntu
Ceph 心得分享
##Ceph ceph :统一开、分布式的云存储 统一指的是 ceph 在业内同 openstack 、swift 一样可以当作 块存储、文件存储、对象存储来使用。并自带了分布式的特性,保证了生产业务的高可用。其主要核心高频的使用点就是 Ceph 的块存储以及对象存储,我们逐一介绍。 ###块存储特性 * 通过 ceph clients 使用块设备 * 精简配置 * 动态扩容
521 0
Ceph 心得分享
|
存储 测试技术 网络安全
ceph安装配置
简介 ceph是一个开源分布式存储系统,支持PB级别的存储,支持对象存储,块存储和文件存储,高性能,高可用,可扩展。 部署网络建议架构图 部署 部署架构图,本次实验部署jewel版本 实验环境的Vagrantfile lab1节点既作admin节点又作node节点,lab2,.
2585 0
|
开发工具 块存储
Ceph-ansible 部署Ceph
Ceph-ansible 部署Ceph   1、安装notario yum install -y python-pip pip install notario 这个包用yum装的版本是不符合要求的,需要使用pip进行安装   2、下载ceph-ansible的代码到本地 git clone https://github.
5827 0
|
Ubuntu 开发工具 块存储

热门文章

最新文章