深入理解Kafka核心设计及原理(一):初识Kafka

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
日志服务 SLS,月写入数据量 50GB 1个月
云原生网关 MSE Higress,422元/月
简介: 深入理解Kafka核心设计及原理(一):初识Kafka

转载请注明出处:

1.1 kafka简介

    Kafka 起初是由 Linkedin 公司采用 Scala 语言开发的一个多分区、多副本且基于 ZooKeeper协调的分布式消息系统,现己被捐献给 Apache 基金会 。 目前 Kafka 已经定位为一个分布式流式处理平台,它以高吞吐、可持久化、可水平扩展、支持流数据处理等多种特性而被广泛使用。

1.2 Kafka应用角色

  目前越来越多的开源分布式处理系统如 Cloudera 、Storm 、Spark 、Flink 等都支持与 Kafka 集成 。Kafka 之所以受到越来越多的青睐,与它所“扮演 ”的三大角色是分不开的 :

    消息系统: Kafka 和传统的消息系统(也称作消息中间件〉都具备系统解稿、冗余存储、流量削 峰、缓冲、异步通信、扩展性、 可恢复性等功能。与此同时,Kafka 还提供了大多数消息系统难以实现的消息顺序性保障及回溯消费 的功能 。

    存储系统: Kafka 把消息持久化到磁盘,相比于其他基于内存存储的系统而言,有效地降低了数据丢失的风险 。 也正是得益于 Kafka 的消息持久化功能和多副本机制,我们可以把 Kafka 作为长期的数据存储系统来使用,只需要把对应的数据保留策略设置为“永久”或启用主题的日志压缩功能即可 。

    流式处理平台: Kafka 不仅为每个流行的流式处理框架提供了可靠的数据来源,还提供了一个完整的流式处理类库,比如窗口、连接、变换和聚合等各类操作 。

1.3 Kafka体系结构——Producer/Consumer/Broker

  整个 Kafka 体系结构中引入了以下 3 个术语。:

    ( 1 ) Producer :生产者,也就是发送消息的一方。生产者负责创建消息 , 然后将其投递到Kafka 中 。

    ( 2) Consumer:消费者,也就是接收消息的一方。消费者连接到 Kafka 上并接收消息,进而进行相应的业务逻辑处理 。

     (3) Broker:服务代理节点。对于 Kafka 而言,Broker 可以简单地看作一个独立的 Kafka服务节点或 Kafka 服务实例。大多数情况下也可以将 Broker 看作一台 Kafka 服务器,前提是这台服务器上只部署了一个 Kafka 实例。一个或多个 Broker 组成了 一个 Kafka 集群 。一般而言,我们更习惯使用首字母小写的 broker 来表示服务代理节点。

                                                           

 

1.4 Kafka高可用,高可靠——主题/分区/副本

    在 Kafka 中还有两个特别重要的概念一一主题( Topic )与分区( Partition )。 Kafka 中的消息以主题为单位进行归类,生产者负责将消息发送到特定的主题(发送到 Kafka 集群中的每一 条消息都要指定一个主题),而消费者负责订阅主题并进行消费。 主题是一个逻辑上的概念,它还可以细分为多个分区,一个分区只属于单个主题,很多时候也会把分区称为主题分区( Topic-Partition )。同一主题下的不同分区包含的消息是不同的,分区在存储层面可以看作一个可追加的日志( Log )文件,消息在被追加到分区日志、文件的时候都会分配一个特定的偏移量( offset )。offset 是消息在分区中的唯一标识,Kafka 通过它来保证消息在分区内的顺序性,不过 offset 并不跨越分区,也就是说,Kafka 保证的是分区有序而不是主题有序。

    每一条消息被发送到 broker 之前,会根据分区规则选择存储到哪个具体的分区 。 如果分区规则设定得合理,所有的消息都可以均匀地分配到不同的分区中 。 如果一个主题只对应一个文件,那么这个文件所在的机器I/O 将会成为这个主题的性能瓶颈,而分区解决了这个问题 。 在创建主题的时候可以通过指定的参数来设置分区的个数,当然也可以在主题创建完成之后去修改分区的数量,通过增加分区的数量可以实现水平扩展。 Kafka 为分区引入了多副本( Replica ) 机制,通过增加副本数量可以提升容灾能力。同一分区的不同副本中保存的是相同的消息(在同一时刻,副本之间并非完全一样),副本之间是“ 一主多从”的关系,其中 leader 副本负责处理读写请求 ,follower 副本只负 责与 leader 副本的消息同步,很多时候 follower 副本中的消息相对 leader副本而言会有一定的滞后。副本处于不同的 broker 中 ,当 leader 副本出现故障时,从 fo llower 副本中重新选举新的 leader 副本对外提供服务。 Kafka 通过多副本机制实现了故障的自动转移,当 Kafka 集群中某个 broker 失效时仍然能保证服务可用 。

                                                             

 

    Kafka 消费端也具备一定 的容灾能力。Consumer 使用拉( Pull )模式从服务端拉取消息,并且保存消费 的具体位置 ,当消费者开机后恢复上线时可以根据之前保存的消费位置重新拉取需要的消息进行消 费 ,这样就不会造成消息丢失 。 分区中 的所有副本统称为 AR (Assigned Replicas )。 所有与 leader 副本保持一定程度同步的副本(包括 leader 副本在内〕组成 ISR On-Sync Replicas ) , ISR 集合是 AR 集合中 的一个子集 。 消息会先发送到 leader 副本,然后 follower 副本才能从 leader 副本中拉取消息进行同步,同步期间内follower 副本相对于 leader 副本而言会有一定程度的滞后 。 前面所说的“ 一定程度的同步”是指可忍受的滞后范围,这个范围可以通过参数进行配置 。 与 leader 副本同步滞后过多的副本(不包括 leader 副本)组成 OSR (Out-of-Sync Replicas ),由 此可见, AR=ISR+OSR 。在正常情况下,所有 的 follower 副本都应该与 leader 副本保持一定程度 的同步,即 AR=ISR, OSR 集合为空。

    leader 副本负 责维护和跟踪 ISR 集合中所有 follower 副本 的滞后状态, 当 follower 副本落后太多或失效时,leader 副本会把它从 ISR 集合中剔除 。 如果 OSR 集合中有 follower 副本 “追上’了 leader 副本,那么 leader 副本会把它从 OSR 集合转移至 ISR 集合 。 默认情况下,当 leader 副本发生故障时,只 有在 ISR 集合中的副本才有资格被选举为新的 leader , 而在 OSR 集合中的副本则没有任何机会(不过这个原则也可以通过修改相应的参数配置来改变)。

    ISR 与 HW 和 LEO 也有紧密的关系 。 HW 是 High Watermark 的缩写,俗称高水位,它标识了 一个特定 的消息偏移量( offset ),消费者只能拉取到这个 offset 之前的消息 。 如图 所示,它代表一个日志文件,这个日志文件 中有 9 条消息,第一条消息的offset( LogStartOffset )为 0,最后一条消息的 offset 为 8,offset 为 9 的消息用虚线框表示,代表下一条待写入的消息 。日志文件的 HW 为 6,表示消费者只能拉取到 offset 在 0 至 5 之间的消息,而 offset 为 6 的消息对消 费者而言是不可见 的 。

                                                                               

 

    LEO 是 Log End Offset 的缩写,它标识当前日志文件中下一条待写入消息 的 offset,图中 offset 为 9 的位置即为当前日志文件的 LEO,LEO 的大小相 当于当前日 志分区中最后一条消息的 offset 值加l 。分区 ISR 集合中的每个副本都会维护自身的 LEO ,而 ISR 集合中最小的 LEO即为分区的 HW ,对消费者而言只能消费 HW 之前的消息 。(高水位可理解为多个副本中最小的offset位移量)

1.5 Kafka 与 zookeeper

    ZooKeeper 是安装 Kafka 集群的必要组件, Kafka 通过 ZooKeeper 来实施对元数据信息 的管理 ,包括集群 、broker、主题、 分区等 内 容。

    ZooKeeper 是一个开源的分布式协调服务,是 Google Chubby 的一个开源实现。分布式应用程序可 以基于 ZooKeeper 实现诸如数据发布/订阅 、负载均衡、 命名 服务、分布式协调/通知 、 集群管理、 Master 选举、配置维护等功能。在 ZooKeeper 中共有 3 个角色: leader 、 follower 和 obsever ;同一时刻ZooKeeper 集群中只会有一个 leader,其他的都是 follower 和 obsever ;obsever 不参与投票,默认情况下ZooKeeper 中只有 leader 和follower 两个角色。

 

 

深入理解Kafka核心设计及原理(一):初始Kafka

深入理解Kafka核心设计及原理(二):生产者

深入理解Kafka核心设计及原理(三):消费者

深入理解Kafka核心设计及原理(四):主题管理

深入理解Kafka核心设计及原理(五):消息存储

深入理解Kafka核心设计及原理(六):Controller选举机制,分区副本leader选举机制,再均衡机制

 

 

标签: kafka

目录
相关文章
|
11天前
|
消息中间件 存储 缓存
大厂面试高频:Kafka 工作原理 ( 详细图解 )
本文详细解析了 Kafka 的核心架构和实现原理,消息中间件是亿级互联网架构的基石,大厂面试高频,非常重要,建议收藏。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
大厂面试高频:Kafka 工作原理 ( 详细图解 )
|
1月前
|
消息中间件 缓存 分布式计算
大数据-59 Kafka 高级特性 消息发送03-自定义拦截器、整体原理剖析
大数据-59 Kafka 高级特性 消息发送03-自定义拦截器、整体原理剖析
28 2
|
1月前
|
消息中间件 缓存 大数据
大数据-57 Kafka 高级特性 消息发送相关01-基本流程与原理剖析
大数据-57 Kafka 高级特性 消息发送相关01-基本流程与原理剖析
41 3
|
6月前
|
消息中间件 存储 负载均衡
kafka底层原理分析
kafka底层原理分析
107 2
|
1月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
137 0
|
3月前
|
消息中间件 Kafka 数据库
深入理解Kafka的数据一致性原理及其与传统数据库的对比
【8月更文挑战第24天】在分布式系统中,确保数据一致性至关重要。传统数据库利用ACID原则保障事务完整性;相比之下,Kafka作为高性能消息队列,采用副本机制与日志结构确保数据一致性。通过同步所有副本上的数据、维护消息顺序以及支持生产者的幂等性操作,Kafka在不牺牲性能的前提下实现了高可用性和数据可靠性。这些特性使Kafka成为处理大规模数据流的理想工具。
85 6
|
3月前
|
消息中间件 存储 SQL
Kafka架构及其原理
Kafka架构及其原理
100 1
|
3月前
|
消息中间件 存储 缓存
这么酷的Kafka,背后的原理了解一下又不会死!
这么酷的Kafka,背后的原理了解一下又不会死!
161 2
|
4月前
|
消息中间件 存储 缓存
深入理解Kafka核心设计及原理(五):消息存储
深入理解Kafka核心设计及原理(五):消息存储
144 8
|
4月前
|
消息中间件 存储 Kafka
深入理解Kafka核心设计及原理(四):主题管理
深入理解Kafka核心设计及原理(四):主题管理
77 8