持久化
下面我们就直接来分别回顾一下各个中间件/组件的持久化机制,最后再总结就好了(三歪相信大家应该也能从回顾中看出些端倪)
为什么要持久化?原因也很简单:数据需要存储下来,不希望出了问题导致数据丢失
Elasticsearch
Elasticsearch是一个全文搜索引擎,对模糊搜索非常擅长。
Elasticsearch在写数据的时候,会先写到内存缓存区,然后写到translog
缓存区,每隔5s
将translog
缓冲区的数据刷到磁盘中
Kafka
众所周知,Kafka是一个高吞吐量的消息队列,那它是怎么持久化的呢?
Kafka relies heavily on the filesystem for storing and caching messages.
没错Kafka用的是文件系统来存储的。
在Kafka官网上其实也说了,Kafka的持久化依赖操作系统的pagecache
和顺序写来实现的。
HDFS
HDFS是分布式文件系统,能存储海量的数据,那HDFS在写入数据的时候是怎么样的呢?
HDFS Client客户端无论读写都需要走到NameNode
去获取/增删改文件的元数据,而NameNode
则是专门维护这些元数据的地方。
所以,在HDFS写数据,需要先去NameNode
上询问这些切分好的block
往哪几个DataNode
上写数据。
为了提高NameNode
的效率,在写数据的时候,NameNode
实际上是操作的是内存,然后涉及到增删改的数据顺序写到editlog
日志文件上
Redis
Redis是基于内存的,如果不想办法将数据保存在硬盘上,一旦Redis重启(退出/故障),内存的数据将会全部丢失。
我们肯定不想Redis里头的数据由于某些故障全部丢失(导致所有请求都走MySQL),即便发生了故障也希望可以将Redis原有的数据恢复过来,所以Redis有RDB
和AOF
的持久化机制。
- RDB:基于快照,将某一时刻的所有数据保存到一个RDB文件中。
- AOF(append-only-file),当Redis服务器执行写命令的时候,将执行的写命令保存到AOF文件中。
AOF持久化功能的实现可以分为3个步骤:
- 命令追加:命令写入aof_buf缓冲区
- 文件写入:调用flushAppendOnlyFile函数,考虑是否要将aof_buf缓冲区写入AOF文件中
- 文件同步:考虑是否将内存缓冲区的数据真正写入到硬盘
HBase
HBase是一个能存储海量数据的数据库。
HBase在写数据的时候,会先写到Mem Store
,当MemStore
超过一定阈值,就会将内存中的数据刷写到硬盘上,形成StoreFile,而StoreFile
底层是以HFile
的格式保存,HFile
是HBase中KeyValue
数据的存储格式。
我们写数据的时候是先写到内存的,为了防止机器宕机,内存的数据没刷到磁盘中就挂了。我们在写Mem store
的时候还会写一份HLog
MySQL
MySQL我们用得最多的InnoDB
引擎是怎么存储的呢?它有redo log
来支撑持久化的功能。
MySQL引入了redo log
,内存写完了,然后会写一份redo log
,这份redo log
记
总结
看完上面常见的中间件/组件的持久化方式,应该就不用我多说了吧?思想几乎都是一样的,只是他们记录“log”的名字不一样而已。
先写buffer,然后顺序IO写Log。防止buffer的数据还没刷到磁盘,宕机导致数据丢失。
对于Log文件,中间件也不会放任它们一直膨胀,导致体积很大:
- 在Redis里边,会对AOF文件进行重写
- 在HDFS里边,
editlog
会定时生成fsimage
- 在Elasticsearch里边,
translog
会根据阈值触发commit
操作 - .....