kafka是如何实现高性能高吞吐的?

简介: 以下是某网站上对该问题的总结,一共分为了以下六点,但这上面说的很浅显,我在后面加了一些自己的理解,做为解释,如有遗漏或者不对的地方欢迎大家指点,我会即时的修改,辛苦诸位老铁!

写在最前

以下是某网站上对该问题的总结,一共分为了以下六点,但这上面说的很浅显,我在后面加了一些自己的理解,做为解释,如有遗漏或者不对的地方欢迎大家指点,我会即时的修改,辛苦诸位老铁!

一、磁盘顺序读写

首先第一个问题,为啥在磁盘中还能提升kafka的性能呢?一般不都是内存的读写速度大于磁盘吗?

我们知道传统读磁盘是随机读写,磁盘在磁道之间移动是需要时间,包括寻址时间,旋转时间等。

KAFKA是顺序读写磁盘,就节省了寻址的时间,顺序读有预读的处理方式 预读就是一下子读一个或多个消息,批量读取。所以性能上能接近于内存读写消息。同时kafka将消息放在磁盘当中能够极大的保障消息的堆积,高吞吐率。


这里引用一篇文章中的话:

局部性原理与磁盘预读

由于存储介质的特性,磁盘本身存取就比主存慢很多,再加上机械运动耗费,磁盘的存取速度往往是主存的几百分分之一,因此为了提高效率,要尽量减少磁盘I/O。为了达到这个目的,磁盘往往不是严格按需读取,而是每次都会预读,即使只需要一个字节,磁盘也会从这个位置开始,顺序向后读取一定长度的数据放入内存。这样做的理论依据是计算机科学中著名的局部性原理:

当一个数据被用到时,其附近的数据也通常会马上被使用。

程序运行期间所需要的数据通常比较集中。由于磁盘顺序读取的效率很高(不需要寻道时间,只需很少的旋转时间),因此对于具有局部性的程序来说,预读可以提高I/O效率。

预读的长度一般为页(page)的整倍数。页是计算机管理存储器的逻辑块,硬件及操作系统往往将主存和磁盘存储区分割为连续的大小相等的块,每个存储块称为一页(在许多操作系统中,页得大小通常为4k),主存和磁盘以页为单位交换数据。当程序要读取的数据不在主存中时,会触发一个缺页异常,此时系统会向磁盘发出读盘信号,磁盘会找到数据的起始位置并向后连续读取一页或几页载入内存中,然后异常返回,程序继续运行。

相关链接:

硬盘的读写原理

二、零拷贝

针对于零拷贝就是节省了CPU处理消息的时间,在Linux系统当中主要分为了内核态和用户态两种系统状态。


内核态就是给用户提供磁盘,网卡,通过内核态进程访问,用户态进程不能直接访问磁盘中的东西,需要进行切换。磁盘数据——>内核态——>用户态——>socket缓冲区(内核态)——>网卡

零拷贝就直接通过在内核态完成了消息的接收转换响应给客户端,避免了多次切换CPU。因为KAFKA消息不需要到用户缓冲区,只是负责传递消息

链接:

Linux系统的内核态和用户态


内核从本质上看是一种软件——控制计算机的硬件资源,并提供上层应用程序运行的环境。用户态即上层应用程序的活动空间,应用程序的执行必须依托于内核提供的资源,包括CPU资源、存储资源、I/O资源等。为了使上层应用能够访问到这些资源,内核必须为上层应用提供访问的接口:即系统调用。

三、分区分段加索引

KAFKA通过分区分段进行存储消息,利用多个Broker中的Topi划分的多个partition分散在多个Broker的Topic中进行备份,从而避免了 消息的堆积。

特别注意的是:同一个消费者组中的多个消费者Consumer可以并发消费Topic上的信息,消费者数量一般等于Partition的个数,同一组消费者组中的多个消费者不能同时消费同一个partition上的数据,不同组消费者组在同一个Topic中进行消费互不影响。

Topic消息是通过以partition来存储消息的,partition是通过划分成多个segment文件来进行存储。针对segment建立了索引index文件,查询的话就是走索引index,然后定位到对应的segment,定位到对应的偏移量OffSet,同时提高数据操作的并行度,因为我们根据index找到对应的segment,读取消息的时候,该segement就已经被我的线程所独占,其他线程不能够访问该segement中的消息,打开这个segement文件同时会加一个文件锁在上面,用来防止并发,如果当前进程写,其他文件读的话就会产生对应的并发问题。当patition是一个整体的话,那么消息读取就只能一个线程一个线程的进来进行读取,同一时间点只能一个线程进行操作,并发效率低。segment将partition进行拆分,拆分成多个segment,加锁的话就直接锁一个segment,类似于HashMap的ContructHashMap的分段锁。

四、其他

1、采用gzip的形式将消息进行压缩,多条消息一起压缩发送,降低带宽。同时对消息进行堆积,达到一定数量然后打个包进行发送。消费端批量拉取,进行解压。

2、直接操作page cache 而不是JVM,JVM最大堆内存为32G,pagecache也会落到磁盘中,读和写都是根据刷盘机制存到内存磁盘,在没有存入磁盘之前就会在页存pagecache中进行读写,存到磁盘中就和上面讲的一样进行读写。

补充:刷盘机制

熟悉Linux操作系统原理的都知道,当我们把数据写入到文件系统之后,数据其实在操 作系统的pagecache里面,并没有刷到磁盘上去。如果此时操作系统挂了,其实数据就 丢了。

一方面,应用程序可以调用fsync这个系统调用来强制刷盘; 另一方面,操作系统有后 台线程,定期刷盘。

如果应用程序每写入1次数据,都调用一次fsync,那性能损耗就很大,所以一般都会在性能和可靠性之间进行权衡。因为对应一个应用来说,虽然应用挂了,只要操作系统 不挂,数据就不会丢。

另外, kafka是多副本的,当你配置了同步复制之后。多个副本的数据都在page cache里面,出现多个副本同时挂掉的概率比1个副本挂掉,概率就小很多了。

对于kafka来说,也提供了相关的配置参数,来让你在性能与可靠性之间权衡,如下代码:

log.flush.interval.messages   在将消息刷新到磁盘之前,在日志分区上累积的消息数量
log.flush.interval.ms     在刷新到磁盘之前,任何topic中的消息保留在内存中的最长时间(以毫秒为单位)。如果未设置,则使用log.flush.scheduler.interval.ms中的值
log.flush.scheduler.interval.ms 日志刷新器检查是否需要将所有日志刷新到磁盘的频率

---------------------------------感谢各位老铁观看,欢迎指出不足之处!!-----------------------------------

相关文章
|
14天前
|
消息中间件 存储 缓存
玩转Kafka—Kafka高性能原因分析
玩转Kafka—Kafka高性能原因分析
32 0
|
8月前
|
消息中间件 存储 缓存
Kafka为什么是高性能高并发高可用架构
Kafka为什么是高性能高并发高可用架构
269 0
|
14天前
|
消息中间件 监控 负载均衡
Kafka 最佳实践:构建可靠、高性能的分布式消息系统
Apache Kafka 是一个强大的分布式消息系统,被广泛应用于实时数据流处理和事件驱动架构。为了充分发挥 Kafka 的优势,需要遵循一些最佳实践,确保系统在高负载下稳定运行,数据可靠传递。本文将深入探讨 Kafka 的一些最佳实践,并提供丰富的示例代码,帮助大家更好地应用这一强大的消息系统。
|
14天前
|
消息中间件 监控 Java
Kafka性能调优:高吞吐、低延迟的数据流
Apache Kafka作为一种高性能、分布式流处理平台,对于实时数据的处理至关重要。本文将深入讨论Kafka性能调优的关键策略和技术,通过丰富的示例代码为大家提供实际操作指南,以构建高吞吐、低延迟的数据流系统。
|
8月前
|
消息中间件 存储 Kafka
谈一谈Kafka在高性能和数据一致性之间做的妥协与改进
CAP定理是分布式系统的基本定理,描述了一致性、可用性和分区容错性三大特性,只能满足两种,开发者必须在此做出取舍。而 Kafka 作为一款高性能的消息队列与分布式存储系统,必然要在高性能和数据一致性之间做出取舍,本文在这方面做了一番探索。
|
10月前
|
消息中间件 存储 缓存
Kafka中实现高性能的设计
Kafka中实现高性能的设计
45 0
|
10月前
|
消息中间件 存储 负载均衡
Kafka实现高性能的设计
Kafka 通过以下方式实现高性能的设计
77 0
|
消息中间件 存储 缓存
Apache Kafka - 高性能原因探究
Apache Kafka - 高性能原因探究
87 0
|
消息中间件 缓存 Java
Kafka大厂高频面试题:在保证高性能、高吞吐的同时保证高可用性
Kafka的消息传输保障机制非常直观。当producer向broker发送消息时,一旦这条消息被commit,由于副本机制(replication)的存在,它就不会丢失。但是如果producer发送数据给broker后,遇到的网络问题而造成通信中断,那producer就无法判断该条消息是否已经提交(commit)。虽然Kafka无法确定网络故障期间发生了什么,但是producer可以retry多次,确保消息已经正确传输到broker中,所以目前Kafka实现的是at least once。
|
12天前
|
消息中间件 关系型数据库 Kafka
实时计算 Flink版产品使用合集之想要加快消费 Kafka 数据的速度,该怎么配置参数
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

热门文章

最新文章