写在最前
以下是某网站上对该问题的总结,一共分为了以下六点,但这上面说的很浅显,我在后面加了一些自己的理解,做为解释,如有遗漏或者不对的地方欢迎大家指点,我会即时的修改,辛苦诸位老铁!
一、磁盘顺序读写
首先第一个问题,为啥在磁盘中还能提升kafka的性能呢?一般不都是内存的读写速度大于磁盘吗?
我们知道传统读磁盘是随机读写,磁盘在磁道之间移动是需要时间,包括寻址时间,旋转时间等。
KAFKA是顺序读写磁盘,就节省了寻址的时间,顺序读有预读的处理方式 预读就是一下子读一个或多个消息,批量读取。所以性能上能接近于内存读写消息。同时kafka将消息放在磁盘当中能够极大的保障消息的堆积,高吞吐率。
这里引用一篇文章中的话:
局部性原理与磁盘预读
由于存储介质的特性,磁盘本身存取就比主存慢很多,再加上机械运动耗费,磁盘的存取速度往往是主存的几百分分之一,因此为了提高效率,要尽量减少磁盘I/O。为了达到这个目的,磁盘往往不是严格按需读取,而是每次都会预读,即使只需要一个字节,磁盘也会从这个位置开始,顺序向后读取一定长度的数据放入内存。这样做的理论依据是计算机科学中著名的局部性原理:
当一个数据被用到时,其附近的数据也通常会马上被使用。
程序运行期间所需要的数据通常比较集中。由于磁盘顺序读取的效率很高(不需要寻道时间,只需很少的旋转时间),因此对于具有局部性的程序来说,预读可以提高I/O效率。
预读的长度一般为页(page)的整倍数。页是计算机管理存储器的逻辑块,硬件及操作系统往往将主存和磁盘存储区分割为连续的大小相等的块,每个存储块称为一页(在许多操作系统中,页得大小通常为4k),主存和磁盘以页为单位交换数据。当程序要读取的数据不在主存中时,会触发一个缺页异常,此时系统会向磁盘发出读盘信号,磁盘会找到数据的起始位置并向后连续读取一页或几页载入内存中,然后异常返回,程序继续运行。
相关链接:
二、零拷贝
针对于零拷贝就是节省了CPU处理消息的时间,在Linux系统当中主要分为了内核态和用户态两种系统状态。
内核态就是给用户提供磁盘,网卡,通过内核态进程访问,用户态进程不能直接访问磁盘中的东西,需要进行切换。磁盘数据——>内核态——>用户态——>socket缓冲区(内核态)——>网卡
零拷贝就直接通过在内核态完成了消息的接收转换响应给客户端,避免了多次切换CPU。因为KAFKA消息不需要到用户缓冲区,只是负责传递消息
链接:
内核从本质上看是一种软件——控制计算机的硬件资源,并提供上层应用程序运行的环境。用户态即上层应用程序的活动空间,应用程序的执行必须依托于内核提供的资源,包括CPU资源、存储资源、I/O资源等。为了使上层应用能够访问到这些资源,内核必须为上层应用提供访问的接口:即系统调用。
三、分区分段加索引
KAFKA通过分区分段进行存储消息,利用多个Broker中的Topi划分的多个partition分散在多个Broker的Topic中进行备份,从而避免了 消息的堆积。
特别注意的是:同一个消费者组中的多个消费者Consumer可以并发消费Topic上的信息,消费者数量一般等于Partition的个数,同一组消费者组中的多个消费者不能同时消费同一个partition上的数据,不同组消费者组在同一个Topic中进行消费互不影响。
Topic消息是通过以partition来存储消息的,partition是通过划分成多个segment文件来进行存储。针对segment建立了索引index文件,查询的话就是走索引index,然后定位到对应的segment,定位到对应的偏移量OffSet,同时提高数据操作的并行度,因为我们根据index找到对应的segment,读取消息的时候,该segement就已经被我的线程所独占,其他线程不能够访问该segement中的消息,打开这个segement文件同时会加一个文件锁在上面,用来防止并发,如果当前进程写,其他文件读的话就会产生对应的并发问题。当patition是一个整体的话,那么消息读取就只能一个线程一个线程的进来进行读取,同一时间点只能一个线程进行操作,并发效率低。segment将partition进行拆分,拆分成多个segment,加锁的话就直接锁一个segment,类似于HashMap的ContructHashMap的分段锁。
四、其他
1、采用gzip的形式将消息进行压缩,多条消息一起压缩发送,降低带宽。同时对消息进行堆积,达到一定数量然后打个包进行发送。消费端批量拉取,进行解压。
2、直接操作page cache 而不是JVM,JVM最大堆内存为32G,pagecache也会落到磁盘中,读和写都是根据刷盘机制存到内存磁盘,在没有存入磁盘之前就会在页存pagecache中进行读写,存到磁盘中就和上面讲的一样进行读写。
补充:刷盘机制
熟悉Linux操作系统原理的都知道,当我们把数据写入到文件系统之后,数据其实在操 作系统的pagecache里面,并没有刷到磁盘上去。如果此时操作系统挂了,其实数据就 丢了。
一方面,应用程序可以调用fsync这个系统调用来强制刷盘; 另一方面,操作系统有后 台线程,定期刷盘。
如果应用程序每写入1次数据,都调用一次fsync,那性能损耗就很大,所以一般都会在性能和可靠性之间进行权衡。因为对应一个应用来说,虽然应用挂了,只要操作系统 不挂,数据就不会丢。
另外, kafka是多副本的,当你配置了同步复制之后。多个副本的数据都在page cache里面,出现多个副本同时挂掉的概率比1个副本挂掉,概率就小很多了。
对于kafka来说,也提供了相关的配置参数,来让你在性能与可靠性之间权衡,如下代码:
log.flush.interval.messages 在将消息刷新到磁盘之前,在日志分区上累积的消息数量 log.flush.interval.ms 在刷新到磁盘之前,任何topic中的消息保留在内存中的最长时间(以毫秒为单位)。如果未设置,则使用log.flush.scheduler.interval.ms中的值 log.flush.scheduler.interval.ms 日志刷新器检查是否需要将所有日志刷新到磁盘的频率
---------------------------------感谢各位老铁观看,欢迎指出不足之处!!-----------------------------------