CEPH Cache Tiering

简介:

Cache Tiering的基本思想是冷热数据分离,用相对快速/昂贵的存储设备如SSD盘,组成一个Pool来作为Cache层,后端用相对慢速/廉价的设备来组建冷数据存储池。

    Ceph Cache Tiering Agent处理缓存层和存储层的数据的自动迁移,对客户端透明操作透明。Cahe层有两种典型使用模式:

1)Writeback模式

Ceph客户端直接往Cache层写数据,写完立即返回,Agent再及时把数据迁移到冷数据池。当客户端取不在Cache层的冷数据 时,Agent负责把冷数据迁移到Cache层。也就是说,Ceph客户端直接在Cache层上进行IO读写操作,不会与相对慢速的冷数据池进行数据交 换。

这种模式适用于可变数据的操作,如照片/视频编辑、电商交易数据等等。

2)只读模式

Ceph客户端在写操作时往后端冷数据池直接写,读数据时,Ceph把数据从后端读取到Cache层。

这种模式适用于不可变数据,如微博/微信上的照片/视频、DNA数据、X射线影像等。

    CRUSH算法是Ceph集群的核心,在深刻理解CRUSH算法的基础上,利用SSD的高性能,可利用较少的成本增加,满足企业关键应用对存储性能的高要求。

具体操作步骤请查看链接http://docs.ceph.com/docs/master/rados/operations/cache-tiering/?highlight=tier


本文转自Devin 51CTO博客,原文链接:http://blog.51cto.com/devingeng/1627400

相关文章
|
存储
qemu 使用 ceph rbd 存储块
qemu 使用 ceph rbd 存储块
203 0
|
存储 缓存 关系型数据库
ES优化文件系统缓存filesystem cache
ES优化文件系统缓存filesystem cache
329 2
|
存储 缓存 Linux
带你读《存储漫谈:Ceph原理与实践》——3.1.4 RBD Cache
带你读《存储漫谈:Ceph原理与实践》——3.1.4 RBD Cache
带你读《存储漫谈:Ceph原理与实践》——3.1.4 RBD Cache
|
存储 缓存 固态存储
Ceph缓冲池配置
Ceph缓冲池配置
|
存储 固态存储 关系型数据库
ceph 指定OSD创建pool
ceph 指定OSD创建pool
ceph 指定OSD创建pool
|
块存储
Ceph-disk手动添加OSD
Ceph-disk手动添加OSD   最近部署了L版的ceph,在进行扩容时,发现手动使用ceph-disk命令出现了问题,根据ceph官网说明,L版要用ceph-volume,然而目前生产环境并未使用这种方式来进行配置,但是L版的使用ceph-disk prepare时创建出来的osd和journal分区效果并不会像J版那样根据配置文件里面的配置来进行创建。
5989 0
|
存储 缓存 块存储
Ceph Cache tier配置
简单了解Cache tier Cache tier 是Ceph服务端缓存的一种方案可以提升存储在后端存储层的I/O性能Cache tier 的创建需要一个由高速而昂贵的存储设备如SSD组成的存储池作为缓存层以及一个相对廉价设备组成的后端存储池作为经济存储层。
7151 0
|
存储 固态存储 缓存