Kafka安装并配置SASL_PLAINTEXT认证

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Kafka安装并配置SASL_PLAINTEXT认证

注:本文只作kafka安装过程中的踩坑处理,并不会有任何使用方面的知识。

小伙伴可以简单过一下,以后要是安装时遇到了问题,也有个地方找嘛

环境

内网服务器一台:ubuntu 18.04 ip: 192.168.2.15

外网服务器一台:ubutun 18.04 内网ip: 192.168.2.11 外网ip:123.123.123.123(非真实,仅做案例)

1. 安装Zookeeper

wget https://archive.apache.org/dist/zookeeper/zookeeper-3.5.9/apache-zookeeper-3.5.9-bin.tar.gz
tar -zxf apache-zookeeper-3.5.9-bin.tar.gz
cd apache-zookeeper-3.5.9-bin/
cp conf/zoo_sample.cfg conf/zoo.cfg
# 启动zookeeper
bin/zkServer.sh start

2.安装Kafka

2.1 下载压缩包解压

wget https://archive.apache.org/dist/kafka/2.4.1/kafka_2.11-2.4.1.tgz
cd kafka_2.11-2.4.1/

2.2 修改配置

vim config/server.properties

#broker.id属性在kafka集群中必须要是唯一
broker.id=0
#kafka部署的机器ip和提供服务的端口号
listeners=PLAINTEXT://192.168.2.15:9092   
#kafka的消息存储文件
log.dir=/usr/local/data/kafka-logs
#kafka连接zookeeper的地址
zookeeper.connect=192.168.2.15:2181

2.3 启动

#后台启动,运行日志在logs/erver.log文件里
./bin/kafka-server-start.sh -daemon config/server.properties
# 停止
./bin/kafka-server-stop.sh

3. 配置外网访问

由于kafka的emmm我也不知道啥特性,总之会遇到一个这么个情况,虽然使用nat将2.11的请求转到了2.15,但是客户端后面与kafka交互真就使用2.15了。

什么意思呢,就是说我的外网地址是:123.123.123.123,第一次连接之后,后面客户端却用192.168.2.15这个ip与kafka交互,很明显不得行呀。

所以我们就要让后面的交互也使用外网地址:123.123.123.123

3.1 修改配置

vim config/server.properties

advertised.listeners=PLAINTEXT://123.123.123.123:9092

增加该配置后,客户端就会用这个地址与kafka交互

3.2 配置NAT转发

进来的:

在192.168.2.11服务器上配置:

iptables -t nat -A PREROUTING -d  192.168.2.11  -p tcp -m tcp --dport 9092 -j DNAT --to-destination  192.168.2.15:9092

出去的:

在192.168.2.15服务器上配置:

root iptables -t nat -A POSTROUTING  --dst  192.168.2.15  -p tcp --dport 9092 -j SNAT --to-source  192.168.2.11

4. 配置SASL_PLAINTEXT认证

4.1 在config下新建文件jaas.conf

KafkaServer {
    org.apache.kafka.common.security.plain.PlainLoginModule required
    username="admin"
    password="admin"
    user_admin="admin";
};

账号密码的格式为 user_name=password, 所以user_admin="admin"表示账号admin和密码admin

这里可以配多个,比如再加个user_zhangsan="123456"

注意:一定要有一条与username和password的一致

4.2 修改配置

vim config/server.properties

listeners=SASL_PLAINTEXT://192.168.2.15:9092
advertised.listeners=SASL_PLAINTEXT://123.123.123.123:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=PLAIN
sasl.enabled.mechanisms=PLAIN

将之前的协议PLAINTEXT改为SASL_PLAINTEXT

4.3 修改启动脚本

vim bin/kafka-run-class.sh

if [ -z "$KAFKA_OPTS" ]; then
  KAFKA_OPTS="-Djava.security.auth.login.config=$base_dir/config/jaas.conf"
fi

为KAFKA_OPTS加上jvm参数

接下来只需重启服务即可

5. SpringBoot使用SASL_PLAINTEXT连接Kafka

5.1 修改配置

spring:
  kafka:
    bootstrap-servers: 123.123.123.123:9092
    producer: # 生产者
      # 开启sasl认证
      properties:
        sasl.mechanism: PLAIN
        security.protocol: SASL_PLAINTEXT
    consumer:
      # 开启sasl认证
      properties:
        sasl.mechanism: PLAIN
        security.protocol: SASL_PLAINTEXT

5.2 在resources目录下新建kafka-jaas.conf文件

KafkaClient {
 org.apache.kafka.common.security.plain.PlainLoginModule required
 username="admin"
 password="admin";
};

5.3 启动时配置sasl认证

@SpringBootApplication
public class Application {
    public static void main(String[] args) throws IOException {
        // 启动时配置sasl认证
        final File file = ResourceUtils.getFile("classpath:kafka-jaas.conf");
        System.setProperty("java.security.auth.login.config", file.getAbsolutePath());
        SpringApplication.run(Application.class, args);
    }
}
目录
相关文章
|
3月前
|
消息中间件 Ubuntu Java
在Ubuntu 18.04上安装Apache Kafka的方法
在Ubuntu 18.04上安装Apache Kafka的方法
181 0
|
16天前
|
消息中间件 存储 Prometheus
Kafka集群如何配置高可用性
Kafka集群如何配置高可用性
|
1月前
|
消息中间件 监控 Ubuntu
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
72 3
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
|
1月前
|
消息中间件 分布式计算 Java
大数据-73 Kafka 高级特性 稳定性-事务 相关配置 事务操作Java 幂等性 仅一次发送
大数据-73 Kafka 高级特性 稳定性-事务 相关配置 事务操作Java 幂等性 仅一次发送
28 2
|
16天前
|
消息中间件 Ubuntu Java
Ubuntu系统上安装Apache Kafka
Ubuntu系统上安装Apache Kafka
|
1月前
|
消息中间件 Java 大数据
大数据-56 Kafka SpringBoot与Kafka 基础简单配置和使用 Java代码 POM文件
大数据-56 Kafka SpringBoot与Kafka 基础简单配置和使用 Java代码 POM文件
65 2
|
1月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
129 0
|
2月前
|
消息中间件 Java Linux
linux 之centos7安装kafka;;;;;待补充,未完成
linux 之centos7安装kafka;;;;;待补充,未完成
|
3月前
|
消息中间件 Java 大数据
"深入理解Kafka单线程Consumer:核心参数配置、Java实现与实战指南"
【8月更文挑战第10天】在大数据领域,Apache Kafka以高吞吐和可扩展性成为主流数据流处理平台。Kafka的单线程Consumer因其实现简单且易于管理而在多种场景中受到欢迎。本文解析单线程Consumer的工作机制,强调其在错误处理和状态管理方面的优势,并通过详细参数说明及示例代码展示如何有效地使用KafkaConsumer类。了解这些内容将帮助开发者优化实时数据处理系统的性能与可靠性。
88 7
|
3月前
|
消息中间件 安全 Java
Spring Boot 基于 SCRAM 认证集成 Kafka 的详解
【8月更文挑战第4天】本文详解Spring Boot结合SCRAM认证集成Kafka的过程。SCRAM为Kafka提供安全身份验证。首先确认Kafka服务已启用SCRAM,并准备认证凭据。接着,在`pom.xml`添加`spring-kafka`依赖,并在`application.properties`中配置Kafka属性,包括SASL_SSL协议与SCRAM-SHA-256机制。创建生产者与消费者类以实现消息的发送与接收功能。最后,通过实际消息传递测试集成效果与认证机制的有效性。
136 4

相关实验场景

更多