开发者学堂课程【大数据 Flink 实时旅游平台环境篇 2020版:环境篇之 kafka 的安装部署】学习笔记,与课程紧密联系,让用户快速学习知识。
课程地址:https://developer.aliyun.com/learning/course/643/detail/10696
环境篇之 kafka 的安装部署
内容介绍
一.解压 kafka 的安装包
二.配置核心的三个配置文件
三.分发到其他服务器
Kafka 是一个数据通道,是大数据公司常用的平台。
Kafka 严重依赖于 zookeeper,所以在启动的时侯必须先启动 zookeeper 再去启动kafka。可以是 kafka 自带的 zookeeper,也可以是外部的,外部的 zookeeper 之前是已经安装好了的,直接用就可以了。
安装的步骤非常简单,一般严重依赖 kafka 的企业都要把它配置到已经配置好的服务器上面去。什么是配置好的,四核,128G或者256G内存就算是配置比较好的。
下面开始配置,把 kafka1.1拖到我们的服务器上面来,执行解压的操作,也是选择一台服务器解压就可以了。
一.解压 kafka 的安装包
在 hadoop01解压,进到 kafka 的目录下面
[root@hadoop01 home]# tar -zxvf
/home/kafka_2.11-1.1.1.tgz-c /usr/local/
回车
解压好了之后,输入[root@hadoop01 hadoop-2.7.6]#cd../
kafka_2.11-1.1.1./
进入到 kafka 的目录下面
[root@hadoop01 kafka_2.11-1.1.1.]#ll
回车,
total 56
drwxr-xr-x. 3 root root 4096 Jul 7 2018 bin
启动停止脚本、(主题、消息)操作脚本
drwxr-xr-x. 2 root root 4096 Jul 7 2018 config
配置目录,主要是server.properties 文件
drwxr-xr-x. 2 root root 4096 Nov 12 11:52 libs
依赖的一下 jar 包库
-rw-r--r--.1 root root 28824 Jul 7 2018 LICENSE
drwxr-xr-x. 2 root root 4096 Nov 12 21:06 logs
默认的日志目录,包括数据操作记录
-rw-r--r--.1 root root 336 Jul 7 2018 NOTICE
drwxr-xr-x. 2 root root 4096 Jul 7 2018 site-docs
学习文档
接下来配置环境变量。
[root@hadoop01 kafka_2.11-1.1.1]# vi /etc/profile
,回车
在文件末尾追加如下内容:
export KAFKA_HOME=/ usr/local/kafka_2.11-1.1.1/
export PATH=SPATH:SKAFKA HOME/bin:
分发:
[root@hadoop01kafka_2.11-1.1.1]#scp/etc/profile Hadoop02:/etc/
[root@hadoop01kafka_2.11-1.1.1]#scp/etc/profile Hadoop03:/etc/
刷新环境变量:
分别执行
[root@hadoop01 kafka_2.11-1.1.1]# source /etc/profile
[root@hadoop02 kafka_2.11-1.1.1]# source /etc/profile
[root@hadoop03 kafka_2.11-1.1.1]# source /etc/profile
目前只有第一排可以这样操作。
[root@hadoop01 kafka_2.11-1.1.1]#ll.bin/
回车看一下目录
[root@hadoop01 kafka_2.11-1.1.1]#which kafka-topics.sh
回车
只要它能出来就证明环境变量没有问题。
二.配置核心的三个配置文件
配置
需要配置的文件主要有3个:
server.properties、producer.properties.
consumer.properties 。
选择在 hadoop01中配置 /config/server.properties 文件
配置 broker(server.properties)
[root@hadoop01 kafka_2.11-1.1.1]#rm-rf ./config/server.properties
[root@hadoop01kafka_2.11-1.1.1]# vi ./config/server.properties
回车
将以上配置文件直接复制到 hadoop01中,回车,配置文件就配置好了。
配置生产者 (producer.properties)
[root@hadoop01kafka_2.11-1.1.1]# rm-rf./config/producer.properties
[root@hadoop01kafka_2.11-1.1.1]# vi./config/producer.properties
回车
配置消费者(consumer.properties)
[root@hadoop01kafka_2.11-1.1.1]# rm-rf./config/consumer.properties
[root@hadoop01kafka_2.11-1.1.1]# vi./config/consumer.properties
回车
把他的覆盖内容复制过来,回车,配置安装到这一步就结束了。
三.分发到其他服务器
分发已经配置好的 kafka目录到 hadoop02/hadoop03 节点的 /usr/local/ 目录下。
[root@hadoop01kafka_2.11-1.1.1]#scp-r.. kafka_2.11-1.1.1/Hadoop02:/usr/local
回车
[root@hadoop01kafka_2.11-1.1.1]#scp-r.. kafka_2.11-1.1.1/Hadoop03:/usr/local
回车
第二个页面需要改一下,因为 brocer 需要有个 id 来标识它。
[root@hadoop02 hadoop-2.7.6]#cd../ kafka_2.11-1.1.1
回车
[root@hadoop02kafka_2.11-1.1.1]# vi./config/server.properties
回车
设置 id=2
在第三排,
[root@hadoop03~]#cd/usr/local/ kafka_2.11-1.1.1
回车
[root@hadoop03kafka_2.11-1.1.1]# vi./config/server.properties
回车
设置 id=3
到此为止 kafka 的配置就结束了。