深入浅出分析kafka客户端程序设计 ----- 生产者篇----万字总结(下)

简介: 深入浅出分析kafka客户端程序设计 ----- 生产者篇----万字总结(下)

深入浅出分析kafka客户端程序设计 ----- 生产者篇----万字总结(上):

https://developer.aliyun.com/article/1393794?spm=a2c6h.24874632.expert-profile.11.6af22f31AcelSW


2.6 RdKafka::PartitionerCb


一个用于自定义消息分区策略的回调函数 partitioner_cb,它会在生产消息并决定消息应该发送到Kafka主题的哪个分区时被调用。当你在生产消息时,你可能希望某些特定的逻辑来决定消息应该发送到哪个分区,而不是使用默认的分区策略。


PartitionerCb用实现自定义分区策略,需要使用RdKafka::Conf::set()设置partitioner_cb属性。

virtual int32_t partitioner_cb(const Topic *topic, const std::string *key, int32_t partition_cnt,void *msg_opaque)=0;
//Partitioner回调函数

返回topic主题中使用key的分区,key可以是NULL或字符串。


partition_cnt表示该主题的分区数量(用于hash计算)


返回值必须在0到partition_cnt间,如果分区失败可能返回RD_KAFKA_PARTITION_UA (-1)。


msg_opaque与RdKafka::Producer::produce()调用提供的msg_opaque相同。


这个回调函数需要实现以下功能:


接收一个指向主题的指针 topic。


一个指向消息键的字符串指针 key。键可以是空或者字符串。


表示主题分区数量的整数 partition_cnt,用于帮助决定消息将会被分发到哪个分区。


一个指向消息不透明数据的指针 msg_opaque,与生产者发出消息时传递的 msg_opaque 相同。


调函数需要返回一个整数值,表示消息应该发送到的分区。这个返回值必须介于0到 partition_cnt 之间,如果分区失败,则可以返回 RD_KAFKA_PARTITION_UA (-1)。


这个 partitioner_cb 回调函数的作用是,当生产者在发送消息到Kafka主题时需要决定消息发送到哪个分区时,会调用这个函数。你可以根据你自己的逻辑实现这个回调函数,让它根据消息的键或其他特征来决定消息应该发送到哪个分区。这样,你就可以自定义消息的分区策略。


在配置参数并创建生产者实例后,你可以使用 RdKafka::Conf::set() 来设置 partitioner_cb 属性,指定自定义的分区策略函数。然后,当你使用生产者发送消息时,Kafka客户端会调用你定义的 partitioner_cb 函数来确定消息应该发送到哪个分区。


一旦消息被分配到相应的分区,生产者就会将消息发送到该分区的消息队列中。消费者可以从这些分区的队列中读取消息。


当你完成生产者发送消息的任务后,可以关闭生产者实例。


C++封装示例:

class HashPartitionerCb : public RdKafka::PartitionerCb
{
public:
    int32_t partitioner_cb (const RdKafka::Topic *topic, const std::string *key,
                            int32_t partition_cnt, void *msg_opaque)
    {
        char msg[128] = {0};
        int32_t partition_id = generate_hash(key->c_str(), key->size()) % partition_cnt;
        //                          [topic][key][partition_cnt][partition_id] 
        //                          :[test][6419][2][1]
        sprintf(msg, "HashPartitionerCb:topic:[%s], key:[%s]partition_cnt:[%d], partition_id:[%d]", topic->name().c_str(),       
                key->c_str(), partition_cnt, partition_id);
        std::cout << msg << std::endl;
        return partition_id;
    }
private:
    static inline unsigned int generate_hash(const char *str, size_t len)
    {
        unsigned int hash = 5381;
        for (size_t i = 0 ; i < len ; i++)
            hash = ((hash << 5) + hash) + str[i];
        return hash;
    }
};

伪代码示例:

#include <librdkafka/rdkafkacpp.h>
class MyPartitionerCallback : public RdKafka::PartitionerCb {
public:
    int32_t partitioner_cb(const RdKafka::Topic *topic, const std::string *key, int32_t partition_cnt, void *msg_opaque) override {
        // 自定义分区逻辑
        // 在这里,你可以根据消息的键(key)或其他标准来决定消息应该分发到哪个分区
        // 你可以使用 topic、key、partition_cnt 等参数进行逻辑判断
        // 假设你的自定义逻辑是简单地根据键的哈希值来选择分区
        if (key) {
            std::hash<std::string> hasher;
            size_t hash_value = hasher(*key);
            return static_cast<int32_t>(hash_value % partition_cnt);
        } else {
            // 如果键为空,则使用默认分区策略
            return RD_KAFKA_PARTITION_UA;
        }
    }
};
int main() {
    // 创建配置对象
    RdKafka::Conf *conf = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);
    // 设置分区回调函数
    MyPartitionerCallback partitioner_callback;
    conf->set("partitioner_cb", &partitioner_callback, errstr);
    // 创建生产者实例
    RdKafka::Producer *producer = RdKafka::Producer::create(conf, errstr);
    if (!producer) {
        // 处理生产者创建失败的情况
        std::cerr << "Failed to create producer: " << errstr << std::endl;
        delete conf;
        return -1;
    }
    // 创建消息对象
    RdKafka::Producer::Message msg("my_topic", 0, RdKafka::Producer::RK_MSG_COPY, /* payload */, /* payload size */, /* key */, /* opaque */);
    // 生产消息
    RdKafka::ErrorCode resp = producer->produce(msg, /* partition */, /* delivery report callback */);
    if (resp != RdKafka::ERR_NO_ERROR) {
        // 处理消息发送失败的情况
        std::cerr << "Failed to produce message: " << RdKafka::err2str(resp) << std::endl;
    }
    // 在这里可以继续生产更多的消息
    // 关闭生产者
    delete producer;
    delete conf;
    return 0;
}

2.7 RdKafka::Topic


kafka中的主题对象,逻辑单元


RdKafka::Topic 扮演了管理 Kafka 主题(Topic)相关操作的角色。

static Topic * create(Handle *base, const std::string &topic_str, Conf *conf, std::string &errstr);
//使用conf配置创建名为topic_str的Topic句柄。
const std::string name ();
//获取Topic名称。
bool partition_available(int32_t partition) const;
//获取parition分区是否可用,只能在 RdKafka::PartitionerCb回调函数内被调用。
ErrorCode offset_store(int32_t partition, int64_t offset);
//存储Topic的partition分区的offset位移,只能用于RdKafka::Consumer,不能用于RdKafka::KafkaConsumer高级接口类。
//使用本接口时,auto.commit.enable参数必须设置为false。
virtual struct rd_kafka_topic_s *c_ptr () = 0;
//返回底层数据结构的rd_kafka_topic_t句柄,不推荐利用rd_kafka_topic_t句柄调用C API,但如果C++ API没有提供相应功能,
//可以直接使用C API和librdkafka核心交互。
static const int32_t PARTITION_UA = -1;   //未赋值分区
static const int64_t OFFSET_BEGINNING = -2; //特殊位移,从开始消费
static const int64_t OFFSET_END = -1;   //特殊位移,从末尾消费
static const int64_t OFFSET_STORED = -1000; //使用offset存储

1.PARTITION_UA (-1): 这个常量代表未指定分区。在某些情况下,如果不想将消费者与特定分区绑定,可以使用这个常量表示未赋值分区。


2.OFFSET_BEGINNING (-2): 该常量表示从分区的起始位置开始消费消息。如果想要从 Kafka 主题的最早消息开始消费,可以使用这个常量。


3.OFFSET_END (-1): 这个常量用于表示从分区的末尾(最新消息)开始消费。如果希望消费者从主题中最新的消息开始消费,可以使用此常量。


4.OFFSET_STORED (-1000): 这个常量表示使用存储的偏移量进行消费。有时候,消费者可能会将消费的偏移量存储在某个地方(比如外部存储、数据库等),以便稍后继续从这个位置开始消费。这个常量可以帮助消费者指定使用存储的偏移量作为消费的起始位置。


这些常量提供了灵活的选项,使得消费者在消费 Kafka 主题消息时可以根据需要选择不同的起始位置或分区,以满足特定的业务需求。


伪代码示例:

#include <librdkafka/rdkafkacpp.h>
int main() {
    // 创建 Kafka 消费者配置
    RdKafka::Conf *conf = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);
    // 设置消费者配置参数...
    // 创建 Kafka 消费者
    RdKafka::Consumer *consumer = RdKafka::Consumer::create(conf, errstr);
    if (!consumer) {
        // 处理消费者创建失败的情况
        return 1;
    }
    // 指定主题和分区
    RdKafka::Topic *topic = RdKafka::Topic::create(consumer, "your_topic", NULL);
    // 设置消费者的分区和偏移量
    int32_t partition = RdKafka::Topic::PARTITION_UA;  // 未指定分区
    int64_t offset = RdKafka::Topic::OFFSET_BEGINNING;  // 从起始位置开始消费
    // 在消费者上订阅主题和分区
    RdKafka::ErrorCode resp = consumer->assign({RdKafka::TopicPartition("your_topic", partition, offset)});
    if (resp != RdKafka::ERR_NO_ERROR) {
        // 处理分配分区失败的情况
        return 1;
    }
    // 开始消费消息
    while (true) {
        // 从消费者拉取消息...
        RdKafka::Message *msg = consumer->consume(1000);  // 1000毫秒超时
        // 处理消息...
        if (msg->err()) {
            // 处理消息消费错误
        } else {
            // 处理接收到的消息
        }
        // 释放消息资源
        delete msg;
    }
    // 关闭资源
    delete topic;
    delete consumer;
    return 0;
}

上述代码什么意思呢?

int32_t partition = RdKafka::Topic::PARTITION_UA;  // 未指定分区

讲得是表示消费者并没有指定要消费的具体分区,因此消费者将会被动态地分配到可用的分区中。实际上,这种方式可以让消费者根据负载均衡策略被均匀地分配到不同的分区,以提高整体的消费效率。


如果是上述代码的话,消费者去消费的话,不会去特定分区去读取数据,而是根据kafka的消费者的分配策略(其实分配策略就是负载均衡策略!!!!!)机制被分配到消费者订阅的topic


中的某个分区中去读取


1.创建 Topic 对象:


在 Kafka 生产者逻辑中,首先需要创建 RdKafka::Topic 对象,通常通过 create函数,该函数接受一些参数,包括 Kafka 主题的名称和配置。创建 Topic 对象是为了后续将消息发送到指定主题。

RdKafka::Topic *topic = RdKafka::Topic::create(/* parameters */);

2.构建消息对象:


在消息生产之前,你描述了初始化和构建消息对象的过程。这可能涉及到创建一个消息对象,设置消息的内容、键、分区等属性。这样的消息对象可以使用 Kafka 生产者库中提供的相应类(可能是RdKafka::Message 或其他类)。

RdKafka::Message *message = /* 构建消息对象 */;

3.将消息发送到主题:


通过创建的 Kafka 生产者实例和之前创建的RdKafka::Topic 对象,可以将构建好的消息发送到 Kafka 集群中的指定主题。通常,发送消息的函数会接受 Topic 对象和消息对象作为参数。

producer->produce(topic, partition, /* other parameters */, message);

其中,producer是之前创建的 Kafka 生产者实例,partition是指定的分区。


2.8 RdKafka::Producer(核心)

static Producer * create(Conf *conf, std::string &errstr);
//创建一个新的Producer客户端对象,conf用于替换默认配置对象,本函数调用后conf可以重用。成功返回新的Producer客户端对象
//,失败返回NULL,errstr可读错误信息。
ErrorCode produce(Topic *topic, int32_t partition, int msgflags, void *payload, size_t len,
const std::string *key, void *msg_opaque);
//生产和发送单条消息到Broker。msgflags:可选项为RK_MSG_BLOCK、RK_MSG_FREE、RK_MSG_COPY。

5.png

返回错误码:

6.png

ErrorCode produce(Topic *topic, int32_t partition, int msgflags, void *payload, size_t len,const void *key, 
size_t key_len, void *msg_opaque);
//生产和发送单条消息到Broker,传递key数据指针和key长度。
ErrorCode produce(Topic *topic, int32_t partition, const std::vector< char > *payload, 
const std::vector< char > *key, void *msg_opaque);
//生产和发送单条消息到Broker,传递消息数组和key数组。接受数组类型的key和payload,数组会被复制。
//ErrorCode flush (int timeout_ms);
//等待所有未完成的所有Produce请求完成。为了确保所有队列和已经执行的Produce请求在中止前完成,flush操作优先于销毁生产者
//实例完成。本函数会调用Producer::poll()函数,因此会触发回调函数。
//ErrorCode purge (int purge_flags);
//清理生产者当前处理的消息。本函数调用时可能会阻塞一定时间,当后台线程队列在清理时。应用程序需要在调用poll或flush函数后
//,执行清理消息的dr_cb回调函数。
virtual Error *init_transactions (int timeout_ms) = 0;
//初始化Producer实例的事务。失败返回RdKafka::Error错误对象,成功返回NULL。
//通过调用RdKafka::Error::is_retriable()函数可以检查返回的错误对象是否有权限重试,调用
//RdKafka::Error::is_fatal()检查返回的错误对象是否是严重错误。返回的错误对象必须elete。
virtual Error *begin_transaction () = 0;
//启动事务。本函数调用前,init_transactions()函数必须被成功调用。
//成功返回NULL,失败返回错误对象。通过调用RdKafka::Error::is_fatal_error()函数可以检查是否是严重错误,返回的错误对象
//必须delete。
virtual Error send_offsets_to_transaction (const std::vector &offsets,const ConsumerGroupMetadata
 *group_metadata,int timeout_ms) = 0;
//发送TopicPartition位移链表到由group_metadata指定的Consumer Group协调器,如果事务提交成功,位移才会被提交。
virtual Error *commit_transaction (int timeout_ms) = 0;
//提交当前事务。在实际提交事务时,任何未完成的消息会被完成投递。
//成功返回NULL,失败返回错误对象。通过调用错误对象的方法可以检查是否有权限重试,是否是严重错误、可中止错误等。
virtual Error *abort_transaction (int timeout_ms) = 0;
//停止事务。本函数从非严重错误、可终止事务中用于恢复。未完成消息会被清理。

3 Kafka 生产者客户端开发

3.1 必要的参数配置(bootstrap.servers)


(1)指定连接 Kafka 集群所需要的 broker 地址清单,具体的内容格式为 host1:port1,host2:port2,可以设置一个或者多个地址,中间以逗号进行隔开,此参数的默认值为 “”。


(2)注意这里并非需要所有的 broker 地址,因为生产者会从给定的 broker 里查找其他 broker 的信息。


(3)过建议至少要设置两个以上的 broker 地址信息,当其中任意一个宕机时,生产者仍然可以连接到 Kafka 集群上。


提示个东西!!!


就是我们生产者producer在连接kafka集群当中的话,可以连接kafka集群当中的一个kafka服务器


或者多个kafka服务器。kafka服务器对应broker。

// 创建Kafka Conf对象
m_config = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);
if(m_config == NULL)
{
    std::cout << "Create RdKafka Conf failed." << std::endl;
}
// 创建Topic Conf对象
m_topicConfig = RdKafka::Conf::create(RdKafka::Conf::CONF_TOPIC);
if(m_topicConfig == NULL)
{
    std::cout << "Create RdKafka Topic Conf failed." << std::endl;
}
// 设置Broker属性
RdKafka::Conf::ConfResult errCode;
m_dr_cb = new ProducerDeliveryReportCb;
std::string errorStr;
errCode = m_config->set("dr_cb", m_dr_cb, errorStr);
if(errCode != RdKafka::Conf::CONF_OK)
{
    std::cout << "Conf set failed:" << errorStr << std::endl;
}
m_event_cb = new ProducerEventCb;
errCode = m_config->set("event_cb", m_event_cb, errorStr);
if(errCode != RdKafka::Conf::CONF_OK)
{
    std::cout << "Conf set failed:" << errorStr << std::endl;
}
m_partitioner_cb = new HashPartitionerCb;
errCode = m_topicConfig->set("partitioner_cb", m_partitioner_cb, errorStr);
if(errCode != RdKafka::Conf::CONF_OK)
{
    std::cout << "Conf set failed:" << errorStr << std::endl;
}
errCode = m_config->set("statistics.interval.ms", "10000", errorStr);
if(errCode != RdKafka::Conf::CONF_OK)
{
    std::cout << "Conf set failed:" << errorStr << std::endl;
}
errCode = m_config->set("message.max.bytes", "10240000", errorStr);
if(errCode != RdKafka::Conf::CONF_OK)
{
    std::cout << "Conf set failed:" << errorStr << std::endl;
}
errCode = m_config->set("bootstrap.servers", m_brokers, errorStr);
if(errCode != RdKafka::Conf::CONF_OK)
{
    std::cout << "Conf set failed:" << errorStr << std::endl;
}

3.2 其他重要的生产者参数


3.2.1 acks


用来指定分区中必须要有多少个副本收到这条消息,之后生产者才会认为这条消 息是成功写入的。 acks是生产者客户端中一个非常重要的参数 ,它涉及消息的可靠性和吞吐量之间的权衡。acks 参数有3种类型的值(都是字符串类型)。


1.acks = 1。默认值即为 1。生产者发送消息之后,只要分区的 leader 副本成功写入消息,那么它就

会收到来自服务端的成功响应。如果消息无法写入 leader 副本,比如在 leader 副本崩溃、重新选

举新的 leader 副本的过程中,那么生产者就会收到一个错误的响应,为了避免消息丢失,生产者

可以选择重发消息。如果消息写入 leader 副本并返回成功给生产者,且在被其他 follower 副本拉

取之前 leader 副本崩溃,那么此时消息还是会丢失,因为新选举的 leader 副本中并没有这条对应

的消息。acks 设置为 1,是消息可靠性和吞吐量之间的折中方案。


2.acks = 0。生产者发送消息之后不需要等待任何服务端的响应。


如果在消息从发送到写入 Kafka 的过程中出现了某些异常,导致 Kafka 并没有收到这条消息,那么生产者也无从得知,消息也就丢失了。


在其他配置环境相同的情况下,acks 设置为 0 可以达到最大的吞吐量。


3.acks = -1 或 acks = all。生产者在消息发送之后,需要等待 ISR 中的所有副本都成功写入消息之后才能够收到来自服务端的成功响应。


在其他配置环境相同的情况下,acks 设置为 -1 可以达到最强的可靠性。

但是并不意味着消息就一定可靠,因为 ISR 中可能只有 leader 副本,这样就退化成了 acks = 1 的

情况。要获得更高的消息可靠性需要配合 min.insync.replicas 等参数的联动。


注意 acks 参数配置的值是一个字符串类型,而不是整数类型。

//范例:
RdKafka::Conf *conf = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);
ConfResult ret = conf->set("acks", "1", errstr);
ConfResult ret = conf->set("acks", "0", errstr);
ConfResult ret = conf->set("acks", "all", errstr);

3.2.2 max.request.size


这个参数用来限制生产者客户端能够发送的消息的最大值,默认值为 1048576 B,即 1 MB。

一般情况下,这个默认值就可以满足大多数的应用场景了。


不建议盲目地增大这个参数的配置值,尤其是在对 Kafka 整体脉络没有足够把控的时候。


因为这个参数还涉及一些其他参数的联动,比如 broker 端的 message.max.bytes 参数,如果配

置错误可能会引起一些不必要的一场。


比如讲 broker 端的 message.max.bytes 参数配置为 10, 而 max.request.size 参数配置为 20,

那么当我们发送一条消息大小为 15 的消息时,生产者客户端就会报出异常:


The reqeust included a message larger than the max message size the server will accept.


errCode = conf->set("message.max.bytes", "10240000", errorStr);

3.2.3 retries 和 retry.backoff.ms


retries 重试次数,默认0


retry.backoff.ms 重试间隔,默认100


1.  retries 参数用来配置生产者重试的次数,默认值为 0,即发生异常的时候不进行任何的重试动作。


retries 参数:


默认为 0,控制生产者的重试次数,设置为大于 0 可在发生可恢复异常时进行内部重试。

2.  消息在从生产者发出道成功写入服务器之前可能发生一些临时性的异常,比如网络抖动、Leader副本的选举等,这种异常往往是可以自行恢复的,生产者可以通过配置 retries 大于 0 的值,以此通过内部重试来恢复而不是一味的将异常抛给生产者的应用程序。


1.临时性异常处理:


1.临时异常(如网络抖动、Leader副本选举)可通过配置 retries 恢复,避免将异常传递给应用程序


3.  如果重试达到设定的次数,那么生产者就会放弃重试并返回异常。


不过并不是所有的异常都是可以通过重试来解决的,比如消息太大,超过 max.request.size 参数 配置的值时,这种方式就不行了。


1.重试次数限制:


1.达到设定的次数后,生产者放弃重试并返回异常。


4.  重试还和另一个参数 retry.backoff.ms 有关,这个参数的默认值为 100,它用来设定两次重试之间的时间间隔,避免无效的频繁重试。


1.不可重试异常:


2.并非所有异常都可通过重试解决,如消息过大超过 max.request.size。


5.  在配置 retries 和 retry.backoff.ms 之前,最好先估算一下可能的异常恢复时间,这样可以设定总的重试时间大于这个异常恢复时间,以此来避免生产者过早地放弃重试。


1.retry.backoff.ms 参数:


1.控制两次重试之间的时间间隔,默认为 100 毫秒,避免频繁无效的重试。


7.  Kafka 可以保证同一个分区中的消息时有序的。


1.Kafka 中的顺序:


1.同一分区中的消息保持有序。


8.  如果生产者按照一定的顺序发送消息,那么这些消息也会顺序的写入分区,进而消费者也可以按照 同样的顺序消费它们。


生产者按顺序发送消息,Kafka 按顺序写入,支持有序消费。


9.  对于某些应用来说,顺序性非常重要,比如 Mysql 的 binlog 传输,如果出现错误就会造成非常严 重的后果。如果讲 retries 参数设置为非零值,并且 max.in.flight.requests.per.connection 参数配置为大于1 的值,那么就会出现错序的现象:如果第一批次消息写入失败,而第二批次消息写入成功,那么生产者会重试发送第一批次的消息,此时如果第一批次的消息写入成功,那么这两个批次的消息就出 现了错序。


对于顺序敏感应用(如 MySQL binlog 传输),配置 retries 和 max.in.flight.requests.per.connection 要小心,以避免错序。


10.  一般而言,在需要保证顺序的场合建议把参数 max.in.flight.requests.per.connection 配置为 1,而不是把retries 配置为 0. 不过这样也会影响整体的吞吐。

max.in.flight.requests.per.connection = 1 限制客户端在单个连接上能够发送的未响应请求的个数。设置此值是1表示kafka broker在响应请求之前client不能再向同一个broker发送请求。注意:设置此参数是为了避免消息乱序


1.max.in.flight.requests.per.connection 参数:


1.设置为 1,限制在单个连接上未响应请求的数量,避免消息错序,但可能影响整体吞吐。


3.2.4 compression.type


这个参数用来指定消费的压缩方式,默认值为 “none”,即默认情况下,消息不会被压缩。

该参数还可以配置为 “gzip”,“snappy”,“lz4”。

对消息进行压缩可以极大地减少网络传输量、降低网络 I/O ,从而提高整体的性能。

消息压缩是一种使用时间换空间的优化方式,如果对时延有一定的要求,则不推荐对消息进行压

缩。


3.2.5 connection.max.idle.ms


这个参数用来指定在多久之后关闭闲置的连接,默认值时 540000 ms,即 9 分钟。

3.2.6 linger.ms


这个参数用来指定生产者发送 Producer Batch 之前等待更多消息(ProducerRecord)加入

ProducerBatch 的时间,默认值为 0。


生产者客户端会在 ProducerBatch 被填满或等待时间超过 linger.ms 值时发送出去。


增大这个参数的值会增加消息的延迟,但是同时能提升一定的吞吐量。


这个 linger.ms 参数与 TCP 协议中的 Nagle 算法有异曲同工之妙。


3.2.7 receive.buffer.bytes


这个参数用来设置 Socket 接受消息缓冲区(SO_RECBUF)的大小,默认值为 32768(B),即 32

KB。


如果设置为 -1,则使用操作系统的默认值。


如果 Producer 与 Kafka 处于不同的机房,则可以适当调大这个参数值。


3.2.8 send.buffer.bytes


这个参数用来设置 Socket 发送消息缓冲区(SO_SNDBUF)的大小,默认值为 131072 (B),即

128 KB。


与 receive.buffer.bytes 参数一样,如果设置为 -1 ,则使用操作系统默认值。


3.2.9 request.timeout.ms


这个参数用来配置 Producer 等待请求响应的最长时间,默认值为 30000 ms。


请求超时之后可以选择进行重试。


注意这个参数需要比 broker 端参数 replica.lag.time.max.ms 的值要大,这样可以减少因客户端重

试而引起的消息重复的概率。


根据具体场景和需求,需要根据网络状况、Kafka集群负载和消息处理要求来调整该参数值。较低延迟要求的场景可以选择较小的值,而对于网络不稳定或处理压力较大的情况,可能需要适当增加该参数值。


3.2.10 client.id


用来设定 KafkaProducer 对应的客户端 id。默认值为 “”。


3.2.11 batch.size


batch.size 是 producer 最重要的参数之一 !它对于调优 producer 吞吐量和延时性能指标都有着非常

重要的作用 。


producer 会将发往同一分区的多条消息封装进一个 batch中,当 batch 满了的时候, producer 会发送

batch 中的所有消息 。不过, producer并不总是等待batch满了才发送消息,很有可能当batch还有很

多空闲空间时 producer 就发送该 batch 。显然,batch 的大小就显得非常重要 。


通常来说,一个小的 batch 中包含的消息数很少,因而一次发送请求能够写入的消息数也很少,所以

producer 的吞吐量会很低;一个 batch 非常之巨大,那么会给内存使用带来极大的压力,因为不管是

否能够填满,producer 都会为该batch 分配固定大小的内存。


因此batch.size 参数的设置其实是一种时间与空间权衡的体现 。batch.size 参数默认值是 16384 ,即

16KB 。这其实是一个非常保守的数字。 在实际使用过程中合理地增加该参数值,通常都会发现

producer 的吞吐量得到了相应的增加 。


声明和定义分离!!!!!


完整代码:

8.png

kafka_producer.h

#ifndef KAFKAPRODUCER_H
#define KAFKAPRODUCER_H
#pragma once
#include <string>
#include <iostream>
#include "librdkafka/rdkafkacpp.h"
class KafkaProducer
{
public:
  /**
  * @brief KafkaProducer
  * @param brokers
  * @param topic
  * @param partition
  */
  explicit KafkaProducer(const std::string& brokers, const std::string& topic, int partition);
  /**
  * @brief push Message to Kafka
  * @param str, message data
  */
  void pushMessage(const std::string& str, const std::string& key);
  ~KafkaProducer();
private:
  std::string m_brokers;      // Broker列表,多个使用逗号分隔
  std::string m_topicStr;     // Topic名称
  int m_partition;        // 分区
  RdKafka::Conf* m_config;        // Kafka Conf对象
  RdKafka::Conf* m_topicConfig;   // Topic Conf对象
  RdKafka::Topic* m_topic;    // Topic对象
  RdKafka::Producer* m_producer;  // Producer对象
  /*只要看到Cb 结尾的类,要继承它然后实现对应的回调函数*/
  RdKafka::DeliveryReportCb* m_dr_cb;
  RdKafka::EventCb* m_event_cb;
  RdKafka::PartitionerCb* m_partitioner_cb;
};
#endif

std::string m_brokers; // Kafka集群的Broker地址列表


std::string m_topicStr; // Kafka主题的名称


int m_partition; // 消息要发送到的分区号


RdKafka::Producer* m_producer; // Kafka Producer实例


RdKafka::Topic* m_topic; // Kafka Topic实例


RdKafka::Conf* m_config; // Kafka全局配置


RdKafka::Conf* m_topicConfig; // Kafka Topic配置


RdKafka::ProducerDeliveryReportCb m_dr_cb; // 生产者投递报告回调函数 RdKafka::ProducerEventCb m_event_cb; // 生产者事件回调函数


RdKafka::HashPartitionerCb m_partitioner_cb; // 分区器回调函数  


kafka_producer.cc

#include "kafka_producer.h"
// call back
class ProducerDeliveryReportCb : public RdKafka::DeliveryReportCb
{
public:
  void dr_cb(RdKafka::Message &message)
  {
    if(message.err())
      std::cerr << "Message delivery failed: " << message.errstr() << std::endl;
    else
    {
      // Message delivered to topic test [0] at offset 135000
      std::cerr << "Message delivered to topic " << message.topic_name()
        << " [" << message.partition() << "] at offset "
        << message.offset() << std::endl;
    }
  }
};
class ProducerEventCb : public RdKafka::EventCb
{
public:
  void event_cb(RdKafka::Event &event)
  {
    switch (event.type())
    {
    case RdKafka::Event::EVENT_ERROR:
      std::cout << "RdKafka::Event::EVENT_ERROR: " << RdKafka::err2str(event.err()) << std::endl;
      break;
    case RdKafka::Event::EVENT_STATS:
      std::cout << "RdKafka::Event::EVENT_STATS: " << event.str() << std::endl;
      break;
    case RdKafka::Event::EVENT_LOG:
      std::cout << "RdKafka::Event::EVENT_LOG " << event.fac() << std::endl;
      break;
    case RdKafka::Event::EVENT_THROTTLE:
      std::cout << "RdKafka::Event::EVENT_THROTTLE " << event.broker_name() << std::endl;
      break;
    }
  }
};
class HashPartitionerCb : public RdKafka::PartitionerCb
{
public:
  int32_t partitioner_cb(const RdKafka::Topic *topic, const std::string *key,
    int32_t partition_cnt, void *msg_opaque)
  {
    char msg[128] = { 0 };
    int32_t partition_id = generate_hash(key->c_str(), key->size()) % partition_cnt;
    //                          [topic][key][partition_cnt][partition_id] 
    //                          :[test][6419][2][1]
    sprintf(msg, "HashPartitionerCb:topic:[%s], key:[%s]partition_cnt:[%d], partition_id:[%d]", topic->name().c_str(),
      key->c_str(), partition_cnt, partition_id);
    std::cout << msg << std::endl;
    return partition_id;
  }
private:
  static inline unsigned int generate_hash(const char *str, size_t len)
  {
    unsigned int hash = 5381;
    for (size_t i = 0; i < len; i++)
      hash = ((hash << 5) + hash) + str[i];
    return hash;
  }
};
KafkaProducer::KafkaProducer(const std::string& brokers, const std::string& topic, int partition)
{
  m_brokers = brokers;
  m_topicStr = topic;
  m_partition = partition;
  /* 创建Kafka Conf对象 */
  m_config = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);
  if(m_config==NULL)
    std::cout << "Create RdKafka Conf failed." << std::endl;
  /* 创建Topic Conf对象 */
  m_topicConfig = RdKafka::Conf::create(RdKafka::Conf::CONF_TOPIC);
  if (m_topicConfig == NULL)
    std::cout << "Create RdKafka Topic Conf failed." << std::endl;
  /* 设置Broker属性 */
  RdKafka::Conf::ConfResult errCode;
  std::string errorStr;
  m_dr_cb = new ProducerDeliveryReportCb;
  // 设置dr_cb属性值
  errCode = m_config->set("dr_cb", m_dr_cb, errorStr);
  if (errCode != RdKafka::Conf::CONF_OK)
  {
    std::cout << "Conf set failed:" << errorStr << std::endl;
  }
  // 设置event_cb属性值
  m_event_cb = new ProducerEventCb;
  errCode = m_config->set("event_cb", m_event_cb, errorStr);
  if (errCode != RdKafka::Conf::CONF_OK)
  {
    std::cout << "Conf set failed:" << errorStr << std::endl;
  }
  // 自定义分区策略
  m_partitioner_cb = new HashPartitionerCb;
  errCode = m_topicConfig->set("partitioner_cb", m_partitioner_cb, errorStr);
  if (errCode != RdKafka::Conf::CONF_OK)
  {
    std::cout << "Conf set failed:" << errorStr << std::endl;
  }
  // 设置配置对象的属性值,都是在kafka全局配置对象中设置
  errCode = m_config->set("statistics.interval.ms", "10000", errorStr);
  if (errCode != RdKafka::Conf::CONF_OK)
  {
    std::cout << "Conf set failed:" << errorStr << std::endl;
  }
  errCode = m_config->set("message.max.bytes", "10240000", errorStr);
  if (errCode != RdKafka::Conf::CONF_OK)
  {
    std::cout << "Conf set failed:" << errorStr << std::endl;
  }
  errCode = m_config->set("bootstrap.servers", m_brokers, errorStr);
  if (errCode != RdKafka::Conf::CONF_OK)
  {
    std::cout << "Conf set failed:" << errorStr << std::endl;
  }
  /* 创建Producer */
  m_producer = RdKafka::Producer::create(m_config, errorStr);
  if (m_producer == NULL)
  {
    std::cout << "Create Producer failed:" << errorStr << std::endl;
  }
  /* 创建Topic对象 */
  m_topic = RdKafka::Topic::create(m_producer, m_topicStr, m_topicConfig, errorStr);
  if (m_topic == NULL)
  {
    std::cout << "Create Topic failed:" << errorStr << std::endl;
  }
}
KafkaProducer::~KafkaProducer()
{
  while (m_producer->outq_len() > 0)
  {
    std::cerr << "Waiting for " << m_producer->outq_len() << std::endl;
    m_producer->flush(5000);
  }
  delete m_config;
  delete m_topicConfig;
  delete m_topic;
  delete m_producer;
  delete m_dr_cb;
  delete m_event_cb;
  delete m_partitioner_cb;
}
void KafkaProducer::pushMessage(const std::string& str, const std::string& key)
{
  int32_t len = str.length();
  void* payload = const_cast<void*>(static_cast<const void*>(str.data()));
  RdKafka::ErrorCode errorCode = m_producer->produce(
    m_topic,
    RdKafka::Topic::PARTITION_UA,
    RdKafka::Producer::RK_MSG_COPY,
    payload,
    len,
    &key,
    NULL);
  m_producer->poll(0);
  if (errorCode != RdKafka::ERR_NO_ERROR)
  {
    std::cerr << "Produce failed: " << RdKafka::err2str(errorCode) << std::endl;
    if (errorCode == RdKafka::ERR__QUEUE_FULL)
    {
      m_producer->poll(100);
    }
  }
}

下面是KafkaProducer::KafkaProducer函数的流程


  1. 初始化成员变量:


  • m_brokers 存储 Kafka broker 地址。


  • m_topicStr 存储 Kafka topic 名称。


  • m_partition 存储分区号。


m_brokers = brokers; m_topicStr = topic; m_partition = partition;


1.创建全局配置对象 (m_config):


1.通过 RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL) 创建 Kafka 全局配置对象。


2.如果创建失败,输出错误信息。


m_topicConfig = RdKafka::Conf::create(RdKafka::Conf::CONF_TOPIC); if (m_topicConfig == NULL) std::cout << "Create RdKafka Topic Conf failed." << std::endl;


1.设置回调函数和其他配置属性:


1.创建 ProducerDeliveryReportCb 类的实例作为 delivery report 的回调函数。


2.创建 ProducerEventCb 类的实例作为 event callback 的回调函数。


3.创建 HashPartitionerCb 类的实例作为自定义分区策略的回调函数。


4.使用 set 方法将这些回调函数设置到对应的配置对象中。


5.设置一些其他配置属性,如统计间隔、消息最大大小、以及 bootstrap.servers。


m_dr_cb = new ProducerDeliveryReportCb; errCode = m_config->set("dr_cb", m_dr_cb, errorStr); m_event_cb = new ProducerEventCb; errCode = m_config->set("event_cb", m_event_cb, errorStr); m_partitioner_cb = new HashPartitionerCb; errCode = m_topicConfig->set("partitioner_cb", m_partitioner_cb, errorStr); // 其他配置属性的设置


1.创建 Kafka Producer 实例 (m_producer):


1.使用上述配置对象创建 Kafka Producer 实例。


2.如果创建失败,输出错误信息。


m_producer = RdKafka::Producer::create(m_config, errorStr); if (m_producer == NULL) { std::cout << "Create Producer failed:" << errorStr << std::endl; }


1. 创建topic对象


CMakeLists.txt

cmake_minimum_required(VERSION 2.8)
project(KafkaProducer)
set(CMAKE_CXX_STANDARD 11)
set(CMAKE_CXX_COMPILER "g++")
set(CMAKE_CXX_FLAGS "-std=c++11 ${CMAKE_CXX_FLAGS}")
set(CMAKE_INCLUDE_CURRENT_DIR ON)
# Kafka头文件路径
include_directories(/usr/local/include/librdkafka)
# Kafka库路径
link_directories(/usr/lib64)
aux_source_directory(. SOURCE)
add_executable(${PROJECT_NAME} ${SOURCE})
TARGET_LINK_LIBRARIES(${PROJECT_NAME} rdkafka++)

测试文件main.cc

#include <iostream>
#include "KafkaProducer.h"
using namespace std;
int main()
{
    // 创建Producer
    // KafkaProducer producer("127.0.0.1:9092,192.168.2.111:9092", "test", 0);
    KafkaProducer producer("127.0.0.1:9092", "test", 0);
    for(int i = 0; i < 10000; i++)
    {
        char msg[64] = {0};
        sprintf(msg, "%s%4d", "Hello RdKafka ", i);
        // 生产消息
        char key[8] = {0};      // 主要用来做负载均衡
        sprintf(key, "%d", i);
        producer.pushMessage(msg, key);  
    }
    RdKafka::wait_destroyed(5000);
}

编译:

mkdir build
cd build
cmake ..
make

4. 总结


Kafka Producer使用流程:


创建Kafka配置实例。


创建Topic配置实例。


设置Kafka配置实例Broker属性。


设置Topic配置实例属性。


注册回调函数(分区策略回调函数需要注册到Topic配置实例)。


创建Kafka Producer客户端实例。


创建Topic实例。


阻塞等待Producer生产消息完成。


等待Produce请求完成。


销毁Kafka Producer客户端实例。

相关文章
|
26天前
|
消息中间件 存储 负载均衡
Apache Kafka核心概念解析:生产者、消费者与Broker
【10月更文挑战第24天】在数字化转型的大潮中,数据的实时处理能力成为了企业竞争力的重要组成部分。Apache Kafka 作为一款高性能的消息队列系统,在这一领域占据了重要地位。通过使用 Kafka,企业可以构建出高效的数据管道,实现数据的快速传输和处理。今天,我将从个人的角度出发,深入解析 Kafka 的三大核心组件——生产者、消费者与 Broker,希望能够帮助大家建立起对 Kafka 内部机制的基本理解。
56 2
|
1月前
|
存储 消息中间件 大数据
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
大数据-69 Kafka 高级特性 物理存储 实机查看分析 日志存储一篇详解
39 4
|
1月前
|
消息中间件 druid 大数据
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(二)
33 2
|
1月前
|
消息中间件 分布式计算 druid
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(一)
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析(一)
56 1
|
1月前
|
消息中间件 SQL 分布式计算
大数据-76 Kafka 高级特性 稳定性-消费重复 生产者、Broker、消费者 导致的重复消费问题
大数据-76 Kafka 高级特性 稳定性-消费重复 生产者、Broker、消费者 导致的重复消费问题
38 1
|
2月前
|
消息中间件 Kafka
消费kafka不需要设置 压缩协议吗 假如生产者压缩协议是lz4
消费kafka不需要设置 压缩协议吗 假如生产者压缩协议是lz4
|
1月前
|
消息中间件 druid Kafka
从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
78 0
|
2月前
|
数据采集 消息中间件 存储
实时数据处理的终极武器:Databricks与Confluent联手打造数据采集与分析的全新篇章!
【9月更文挑战第3天】本文介绍如何结合Databricks与Confluent实现高效实时数据处理。Databricks基于Apache Spark提供简便的大数据处理方式,Confluent则以Kafka为核心,助力实时数据传输。文章详细阐述了利用Kafka进行数据采集,通过Delta Lake存储并导入数据,最终在Databricks上完成数据分析的全流程,展示了一套完整的实时数据处理方案。
70 3
|
1月前
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
|
1月前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
49 1
下一篇
无影云桌面