Ceph架构及性能优化

简介:

对分布式存储系统的优化离不开以下几点:

1. 硬件层面

硬件规划

SSD选择

BIOS设置

2. 软件层面

Linux OS

Ceph Configurations

PG Number调整

CRUSH Map

其他因素

 

硬件层面

1、  CPU

ceph-osd进程在运行过程中会消耗CPU资源,所以一般会为每一个ceph-osd进程绑定一个CPU核上。

ceph-mon进程并不十分消耗CPU资源,所以不必为ceph-mon进程预留过多的CPU资源。

ceph-msd也是非常消耗CPU资源的,所以需要提供更多的CPU资源。

2、  内存

ceph-monceph-mds需要2G内存,每个ceph-osd进程需要1G内存。

3、  网络

万兆网络现在基本上是跑Ceph必备的,网络规划上,也尽量考虑分离cilentcluster网络。网络接口上可以使用bond来提供高可用或负载均衡。

4、  SSD

SSDceph中的使用可以有几种架构

a、  ssd作为Journal

b、  ssd作为高速ssd pool(需要更改crushmap)

c、  ssd做为tier pool

5、  BIOS

a、  开启VTHTVH是虚拟化云平台必备的,HT是开启超线程单个处理器都能使用线程级并行计算。

b、  关闭节能设置,可有一定的性能提升。

c、  NUMA思路就是将内存和CPU分割为多个区域,每个区域叫做NODE,然后将NODE高速互联。 nodecpu与内存访问速度快于访问其他node的内存, NUMA可能会在某些情况下影响ceph-osd 。解决的方案,一种是通过BIOS关闭NUMA,另外一种就是通过cgroupceph-osd进程与某一个CPU Core以及同一NODE下的内存进行绑定。但是第二种看起来更麻烦,所以一般部署的时候可以在系统层面关闭NUMACentOS系统下,通过修改/etc/grub.conf文件,添加numa=off来关闭NUMA     

 

软件层面

1、  Kernel pid max

1
echo  4194303 >  /proc/sys/kernel/pid_max

2、  设置MTU,交换机端需要支持该功能,系统网卡设置才有效果

配置文件追加MTU=9000

3、  read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作

1
echo  "8192"  /sys/block/sda/queue/read_ahead_kb

4、  swappiness, 主要控制系统对swap的使用

1
echo  "vm.swappiness = 0" /etc/sysctl .conf ;  sysctl –p

5、  I/O SchedulerSSD要用noopSATA/SAS使用deadline

1
2
echo  "deadline"  > /sys/block/sd [x] /queue/scheduler
echo  "noop"  > /sys/block/sd [x] /queue/scheduler

6、  ceph.conf配置选项

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
[global] #全局设置
fsid = 88caa60a-e6d1-4590-a2b5-bd4e703e46d9            #集群标识ID 
mon host = 10.0.1.21,10.0.1.22,10.0.1.23             #monitor IP 地址
auth cluster required = cephx                   #集群认证
auth service required = cephx                            #服务认证
auth client required = cephx                             #客户端认证
osd pool default size = 2                              #最小副本数
osd pool default min size = 1                            #PG 处于 degraded 状态不影响其 IO 能力,min_size是一个PG能接受IO的最小副本数
osd pool default pg num = 128                            #pool的pg数量
osd pool default pgp num = 128                           #pool的pgp数量
public network = 10.0.1.0 /24                             #公共网络(monitorIP段) 
cluster network = 10.0.1.0 /24                            #集群网络
max  open  files = 131072                                  #默认0#如果设置了该选项,Ceph会设置系统的max open fds
mon initial members = controller1, controller2, compute01  #初始monitor (由创建monitor命令而定)
##############################################################
[mon]
mon data =  /var/lib/ceph/mon/ceph- $ id
mon clock drift allowed = 1                              #默认值0.05#monitor间的clock drift
mon osd min down reporters = 13                          #默认值1#向monitor报告down的最小OSD数
mon osd down out interval = 600       #默认值300      #标记一个OSD状态为down和out之前ceph等待的秒数
##############################################################
[osd]
osd data =  /var/lib/ceph/osd/ceph- $ id
osd journal size = 20000  #默认5120                      #osd journal大小
osd journal =  /var/lib/ceph/osd/ $cluster-$ id /journal  #osd journal 位置
osd mkfs  type  = xfs                                      #格式化系统类型
osd mkfs options xfs = -f -i size=2048                   #强制格式化
filestore xattr use omap =  true                          #默认false#为XATTRS使用object map,EXT4文件系统时使用,XFS或者btrfs也可以使用
filestore min  sync  interval = 10                         #默认0.1#从日志到数据盘最小同步间隔(seconds)
filestore max  sync  interval = 15                         #默认5#从日志到数据盘最大同步间隔(seconds)
filestore queue max ops = 25000                         #默认500#数据盘最大接受的操作数
filestore queue max bytes = 1048576000       #默认100   #数据盘一次操作最大字节数(bytes
filestore queue committing max ops = 50000  #默认500     #数据盘能够commit的操作数
filestore queue committing max bytes = 10485760000  #默认100 #数据盘能够commit的最大字节数(bytes)
filestore  split  multiple = 8  #默认值2                  #前一个子目录分裂成子目录中的文件的最大数量
filestore merge threshold = 40  #默认值10               #前一个子类目录中的文件合并到父类的最小数量
filestore fd cache size = 1024  #默认值128              #对象文件句柄缓存大小
journal max write bytes = 1073714824  #默认值1048560    #journal一次性写入的最大字节数(bytes)
journal max write entries = 10000  #默认值100         #journal一次性写入的最大记录数
journal queue max ops = 50000   #默认值50            #journal一次性最大在队列中的操作数
journal queue max bytes = 10485760000  #默认值33554432   #journal一次性最大在队列中的字节数(bytes)
osd max write size = 512  #默认值90                   #OSD一次可写入的最大值(MB)
osd client message size cap = 2147483648  #默认值100    #客户端允许在内存中的最大数据(bytes)
osd deep scrub stride = 131072  #默认值524288         #在Deep Scrub时候允许读取的字节数(bytes)
osd  op  threads = 16  #默认值2                         #并发文件系统操作数
osd disk threads = 4  #默认值1                        #OSD密集型操作例如恢复和Scrubbing时的线程
osd map cache size = 1024  #默认值500                 #保留OSD Map的缓存(MB)
osd map cache bl size = 128  #默认值50                #OSD进程在内存中的OSD Map缓存(MB)
osd  mount  options xfs =  "rw,noexec,nodev,noatime,nodiratime,nobarrier"  #默认值rw,noatime,inode64  #Ceph OSD xfs Mount选项
osd recovery  op  priority = 2  #默认值10              #恢复操作优先级,取值1-63,值越高占用资源越高
osd recovery max active = 10  #默认值15              #同一时间内活跃的恢复请求数 
osd max backfills = 4   #默认值10                  #一个OSD允许的最大backfills数
osd min pg log entries = 30000  #默认值3000           #修建PGLog是保留的最大PGLog数
osd max pg log entries = 100000  #默认值10000         #修建PGLog是保留的最大PGLog数
osd mon heartbeat interval = 40  #默认值30            #OSD ping一个monitor的时间间隔(默认30s)
ms dispatch throttle bytes = 1048576000  #默认值 104857600 #等待派遣的最大消息数
objecter inflight ops = 819200  #默认值1024           #客户端流控,允许的最大未发送io请求数,超过阀值会堵塞应用io,为0表示不受限
osd  op  log threshold = 50  #默认值5                  #一次显示多少操作的log
osd crush chooseleaf  type  = 0  #默认值为1              #CRUSH规则用到chooseleaf时的bucket的类型
##############################################################
[client]
rbd cache =  true  #默认值 true      #RBD缓存
rbd cache size = 335544320  #默认值33554432           #RBD缓存大小(bytes)
rbd cache max dirty = 134217728  #默认值25165824      #缓存为write-back时允许的最大dirty字节数(bytes),如果为0,使用write-through
rbd cache max dirty age = 30  #默认值1                #在被刷新到存储盘前dirty数据存在缓存的时间(seconds)
rbd cache writethrough  until  flush =  false  #默认值true  #该选项是为了兼容linux-2.6.32之前的virtio驱动,避免因为不发送flush请求,数据不回写
               #设置该参数后,librbd会以writethrough的方式执行io,直到收到第一个flush请求,才切换为writeback方式。
rbd cache max dirty object = 2  #默认值0              #最大的Object对象数,默认为0,表示通过rbd cache size计算得到,librbd默认以4MB为单位对磁盘Image进行逻辑切分
       #每个chunk对象抽象为一个Object;librbd中以Object为单位来管理缓存,增大该值可以提升性能
rbd cache target dirty = 235544320  #默认值16777216    #开始执行回写过程的脏数据大小,不能超过 rbd_cache_max_dirty

7、  PG Number

PGPGP数量一定要根据OSD的数量进行调整,计算公式如下,但是最后算出的结果一定要接近或者等于一个2的指数。

Total PGs = (Total_number_of_OSD * 100) / max_replication_count

例:

100osd2副本,5pool

Total PGs =100*100/2=5000

每个pool PG=5000/5=1000,那么创建pool的时候就指定pg1024

ceph osd pool create pool_name 1024

8、  修改crush map

Crush map可以设置不同的osd对应到不同的pool,也可以修改每个osdweight

配置可参考:http://linuxnote.blog.51cto.com/9876511/1790758

9、  其他因素

ceph osd perf

通过osd perf可以提供磁盘latency的状况,如果延时过长,应该剔除osd



本文转自Jacken_yang 51CTO博客,原文链接:http://blog.51cto.com/linuxnote/1791167,如需转载请自行联系原作者

相关文章
|
3月前
|
缓存 Cloud Native Java
性能优化与架构能力复盘报告
本复盘总结了在性能优化、架构设计及云原生方面的实践经验,涵盖性能分析、全链路压测、缓存策略、微服务治理等内容,展示了从系统性能提升到成本控制的综合能力,并规划了未来在JVM优化、ServiceMesh及APM平台建设等方面的能力提升路径。
92 3
|
8月前
|
监控 NoSQL 算法
百万级URL重定向工程:大规模网站架构设计与性能优化实战
本文深入探讨了大规模重定向系统的核心挑战与解决方案,涵盖技术瓶颈分析、分布式架构设计、十亿级URL处理策略、全球化部署方案及全链路监控体系。通过数学建模与性能优化,提出三层架构模型,并结合一致性哈希分片算法实现高效路由。同时,对比不同架构的吞吐量与容灾能力,分享某电商平台实践案例,展示性能显著提升。最后展望重定向即服务(RaaS)未来趋势,包括AI动态路由、量子安全跳转和边缘智能等关键技术,为企业提供扩展性强、稳定性高的系统设计参考。
301 25
|
存储 前端开发 JavaScript
深入理解React Fiber架构及其性能优化
【10月更文挑战第5天】深入理解React Fiber架构及其性能优化
520 1
|
12月前
|
监控 安全 API
使用PaliGemma2构建多模态目标检测系统:从架构设计到性能优化的技术实践指南
本文详细介绍了PaliGemma2模型的微调流程及其在目标检测任务中的应用。PaliGemma2通过整合SigLIP-So400m视觉编码器与Gemma 2系列语言模型,实现了多模态数据的高效处理。文章涵盖了开发环境构建、数据集预处理、模型初始化与配置、数据加载系统实现、模型微调、推理与评估系统以及性能分析与优化策略等内容。特别强调了计算资源优化、训练过程监控和自动化优化流程的重要性,为机器学习工程师和研究人员提供了系统化的技术方案。
964 77
使用PaliGemma2构建多模态目标检测系统:从架构设计到性能优化的技术实践指南
|
8月前
|
边缘计算 监控 安全
301重定向进阶实战:从性能优化到未来架构演进
本文探讨了百万级流量动态重定向的架构设计与优化方案,结合全球电商平台迁移案例,展示基于Nginx+Lua的动态规则引擎及流量分级策略。同时,深入分析性能优化与安全加固技术,如零延迟跳转、智能熔断机制,并提出混合云环境下的跨平台解决方案。此外,针对SEO数据继承与流量恢复提供三维权重映射模型和自动化监测工具链。最后,展望边缘计算、区块链及量子安全等下一代重定向技术,为企业构建面向未来的体系提供参考。
226 7
|
9月前
|
缓存 人工智能 监控
文生图架构设计原来如此简单之性能优化
这个简单的架构包含了所有核心要素:用户请求、负载分发、处理节点和分层缓存。看起来很简单对吧?但它却能支撑起整个文生图服务。用最少的复杂度,实现最大的效果。
176 0
|
9月前
|
消息中间件 安全 NoSQL
布谷直播系统源码开发实战:从架构设计到性能优化
作为山东布谷科技的一名技术研发人员,我参与了多个直播系统平台从0到1的开发和搭建,也见证了直播行业从萌芽到爆发的全过程。今天,我想从研发角度,分享一些直播系统软件开发的经验和心得,希望能对大家有所帮助。
|
存储 运维 关系型数据库
2024年最全ceph的功能组件和架构概述(2),Linux运维工程面试问题
2024年最全ceph的功能组件和架构概述(2),Linux运维工程面试问题
2024年最全ceph的功能组件和架构概述(2),Linux运维工程面试问题
|
12月前
|
网络协议 Linux Android开发
深入探索Android系统架构与性能优化
本文旨在为读者提供一个全面的视角,以理解Android系统的架构及其关键组件。我们将探讨Android的发展历程、核心特性以及如何通过有效的策略来提升应用的性能和用户体验。本文不包含常规的技术细节,而是聚焦于系统架构层面的深入分析,以及针对开发者的实际优化建议。
339 21
|
设计模式 缓存 架构师
架构师必备10大接口性能优化秘技
【11月更文挑战第25天】在软件开发中,接口性能优化是架构师必须掌握的关键技能之一。一个高效的接口不仅能够提升用户体验,还能减少服务器资源消耗,提高系统稳定性。本文将介绍10大接口性能优化秘技,并通过Java示例代码展示这些技巧在实际业务场景中的应用。
254 3

热门文章

最新文章