环境篇之 kafka 的安装部署|学习笔记

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
云原生网关 MSE Higress,422元/月
简介: 快速学习环境篇之 kafka 的安装部署

开发者学堂课程【大数据 Flink 实时旅游平台环境篇 2020版:环境篇之 kafka 的安装部署】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/643/detail/10696


环境篇之 kafka 的安装部署

内容介绍

一.解压 kafka 的安装包

二.配置核心的三个配置文件

三.分发到其他服务器


Kafka 是一个数据通道,是大数据公司常用的平台。

Kafka 严重依赖于 zookeeper,所以在启动的时侯必须先启动 zookeeper 再去启动kafka。可以是 kafka 自带的 zookeeper,也可以是外部的,外部的 zookeeper 之前是已经安装好了的,直接用就可以了。

安装的步骤非常简单,一般严重依赖 kafka 的企业都要把它配置到已经配置好的服务器上面去。什么是配置好的,四核,128G或者256G内存就算是配置比较好的。

下面开始配置,把 kafka1.1拖到我们的服务器上面来,执行解压的操作,也是选择一台服务器解压就可以了。


一.解压 kafka 的安装包

在 hadoop01解压,进到 kafka 的目录下面

[root@hadoop01 home]# tar -zxvf  

/home/kafka_2.11-1.1.1.tgz-c /usr/local/ 回车  

解压好了之后,输入[root@hadoop01 hadoop-2.7.6]#cd../  

kafka_2.11-1.1.1./进入到 kafka 的目录下面

[root@hadoop01 kafka_2.11-1.1.1.]#ll 回车,

total 56

drwxr-xr-x. 3 root root 4096 Jul 7 2018 bin 启动停止脚本、(主题、消息)操作脚本  

drwxr-xr-x. 2 root root 4096 Jul 7 2018 config 配置目录,主要是server.properties 文件

drwxr-xr-x. 2 root root 4096 Nov 12 11:52 libs 依赖的一下 jar 包库

-rw-r--r--.1 root root 28824 Jul 7 2018 LICENSE  

drwxr-xr-x. 2 root root 4096 Nov 12 21:06 logs 默认的日志目录,包括数据操作记录

-rw-r--r--.1 root root 336 Jul 7 2018 NOTICE  

drwxr-xr-x. 2 root root 4096 Jul 7 2018 site-docs学习文档

接下来配置环境变量。

[root@hadoop01 kafka_2.11-1.1.1]# vi /etc/profile,回车

在文件末尾追加如下内容:

export KAFKA_HOME=/ usr/local/kafka_2.11-1.1.1/  

export PATH=SPATH:SKAFKA HOME/bin:

分发:

[root@hadoop01kafka_2.11-1.1.1]#scp/etc/profile Hadoop02:/etc/

[root@hadoop01kafka_2.11-1.1.1]#scp/etc/profile Hadoop03:/etc/

刷新环境变量:

分别执行

[root@hadoop01 kafka_2.11-1.1.1]# source /etc/profile

[root@hadoop02 kafka_2.11-1.1.1]# source /etc/profile

[root@hadoop03 kafka_2.11-1.1.1]# source /etc/profile

目前只有第一排可以这样操作。

[root@hadoop01 kafka_2.11-1.1.1]#ll.bin/ 回车看一下目录

[root@hadoop01 kafka_2.11-1.1.1]#which kafka-topics.sh 回车

只要它能出来就证明环境变量没有问题。


二.配置核心的三个配置文件

配置

需要配置的文件主要有3个:

server.properties、producer.properties.  

consumer.properties 。

选择在 hadoop01中配置 /config/server.properties 文件

配置 broker(server.properties)

[root@hadoop01 kafka_2.11-1.1.1]#rm-rf ./config/server.properties

[root@hadoop01kafka_2.11-1.1.1]# vi ./config/server.properties

回车

将以上配置文件直接复制到 hadoop01中,回车,配置文件就配置好了。

配置生产者 (producer.properties)

[root@hadoop01kafka_2.11-1.1.1]# rm-rf./config/producer.properties

[root@hadoop01kafka_2.11-1.1.1]# vi./config/producer.properties

回车

配置消费者(consumer.properties)

[root@hadoop01kafka_2.11-1.1.1]# rm-rf./config/consumer.properties

[root@hadoop01kafka_2.11-1.1.1]# vi./config/consumer.properties

回车

把他的覆盖内容复制过来,回车,配置安装到这一步就结束了。


三.分发到其他服务器

分发已经配置好的 kafka目录到 hadoop02/hadoop03 节点的 /usr/local/ 目录下。

[root@hadoop01kafka_2.11-1.1.1]#scp-r.. kafka_2.11-1.1.1/Hadoop02:/usr/local 回车

[root@hadoop01kafka_2.11-1.1.1]#scp-r.. kafka_2.11-1.1.1/Hadoop03:/usr/local 回车

第二个页面需要改一下,因为 brocer 需要有个 id 来标识它。

[root@hadoop02 hadoop-2.7.6]#cd../ kafka_2.11-1.1.1 回车

[root@hadoop02kafka_2.11-1.1.1]# vi./config/server.properties 回车

设置 id=2

在第三排,

[root@hadoop03~]#cd/usr/local/ kafka_2.11-1.1.1 回车

[root@hadoop03kafka_2.11-1.1.1]# vi./config/server.properties 回车

设置 id=3

到此为止 kafka 的配置就结束了。

相关文章
|
消息中间件 分布式计算 Hadoop
Kafka安装部署
Kafka安装部署
218 1
|
消息中间件 数据可视化 Kafka
【kafka可视化工具】kafka-eagle在windows环境的下载、安装、启动与访问
【kafka可视化工具】kafka-eagle在windows环境的下载、安装、启动与访问
1084 0
|
1月前
|
消息中间件 Java Kafka
【手把手教你Linux环境下快速搭建Kafka集群】内含脚本分发教程,实现一键部署多个Kafka节点
本文介绍了Kafka集群的搭建过程,涵盖从虚拟机安装到集群测试的详细步骤。首先规划了集群架构,包括三台Kafka Broker节点,并说明了分布式环境下的服务进程配置。接着,通过VMware导入模板机并克隆出三台虚拟机(kafka-broker1、kafka-broker2、kafka-broker3),分别设置IP地址和主机名。随后,依次安装JDK、ZooKeeper和Kafka,并配置相应的环境变量与启动脚本,确保各组件能正常运行。最后,通过编写启停脚本简化集群的操作流程,并对集群进行测试,验证其功能完整性。整个过程强调了自动化脚本的应用,提高了部署效率。
【手把手教你Linux环境下快速搭建Kafka集群】内含脚本分发教程,实现一键部署多个Kafka节点
|
2月前
|
消息中间件 Ubuntu Java
|
3月前
|
消息中间件 Ubuntu Java
|
4月前
|
消息中间件 Ubuntu Java
Kafka安装部署
Kafka安装部署
|
5月前
|
消息中间件 Java Kafka
如何在Kafka分布式环境中保证消息的顺序消费?深入剖析Kafka机制,带你一探究竟!
【8月更文挑战第24天】Apache Kafka是一款专为实时数据管道和流处理设计的分布式平台,以其高效的消息发布与订阅功能著称。在分布式环境中确保消息按序消费颇具挑战。本文首先介绍了Kafka通过Topic分区实现消息排序的基本机制,随后详细阐述了几种保证消息顺序性的策略,包括使用单分区Topic、消费者组搭配单分区消费、幂等性生产者以及事务支持等技术手段。最后,通过一个Java示例演示了如何利用Kafka消费者确保消息按序消费的具体实现过程。
203 3
|
8月前
|
消息中间件 存储 分布式计算
Hadoop学习笔记(HDP)-Part.19 安装Kafka
01 关于HDP 02 核心组件原理 03 资源规划 04 基础环境配置 05 Yum源配置 06 安装OracleJDK 07 安装MySQL 08 部署Ambari集群 09 安装OpenLDAP 10 创建集群 11 安装Kerberos 12 安装HDFS 13 安装Ranger 14 安装YARN+MR 15 安装HIVE 16 安装HBase 17 安装Spark2 18 安装Flink 19 安装Kafka 20 安装Flume
213 0
Hadoop学习笔记(HDP)-Part.19 安装Kafka
|
8月前
|
消息中间件 Kafka Apache
【Kafka专栏】windows搭建Kafka环境 & 详细教程(01)
【Kafka专栏】windows搭建Kafka环境 & 详细教程(01)
545 2
|
8月前
|
消息中间件 Kafka Linux
初尝Kafka(二):搭建环境
初尝Kafka(二):搭建环境
72 1