Kafka Docker集群搭建

本文涉及的产品
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 1. Zookeeper下载http://apache.org/dist/zookeeper/http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.
1. Zookeeper下载
http://apache.org/dist/zookeeper/

http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.4.9/zookeeper-3.4.9.tar.gz
2.Kafka下载
http://apache.org/dist/kafka/
http://mirror.bit.edu.cn/apache/kafka/0.10.0.0/kafka_2.10-0.10.0.0.tgz
3,Zookeeper的Docker镜像制作
  • 可以直接使用Zookeeper镜像

    docker pull zookeeper
  • 也可以自己使用Dockerfile制作

    #基础镜像使用java,这样可以免于设置java环境
    FROM java
    
    #作者
    MAINTAINER Bonker <bonker@foxmail.com>
    
    #定义工作目录
    ENV WORK_PATH /opt/zkcluster/zkconf
    
    #定义zookeeper文件夹名称
    ENV ZOOKEEPER_PACKAGE_NAME zookeeper-3.4.9
    
    #创建工作目录
    RUN mkdir -p $WORK_PATH
    
    #把zookeeper压缩文件复制到工作目录
    COPY ./$ZOOKEEPER_PACKAGE_NAME.tar.gz $WORK_PATH/
    
    #解压缩
    RUN tar -xvf $WORK_PATH/$ZOOKEEPER_PACKAGE_NAME.tar.gz -C $WORK_PATH/
    
    #删除压缩文件
    RUN rm $WORK_PATH/$ZOOKEEPER_PACKAGE_NAME.tar.gz
    
    #给shell赋予执行权限
    RUN chmod a+x $WORK_PATH/$ZOOKEEPER_PACKAGE_NAME/bin/zkServer.sh
    
    RUN mv $WORK_PATH/$ZOOKEEPER_PACKAGE_NAME/conf/zoo_sample.cfg $WORK_PATH/$ZOOKEEPER_PACKAGE_NAME/conf/zoo.cfg
    
    ENTRYPOINT  $WORK_PATH/$ZOOKEEPER_PACKAGE_NAME/bin/zkServer.sh start-foreground
    #ENTRYPOINT  ["/bin/sh -c",$WORK_PATH/$ZOOKEEPER_PACKAGE_NAME/bin/zkServer.sh]
    #CMD [start-foreground]
  • 构建zookeeper

    docker build -t bonker/zookeeper:3.4.9 .
  • 运行docker

    docker run -d -p 2181:2181 --name zookeeper3.4.9 bonker/zookeeper:3.4.9
4,Kafka的Docker镜像制作
  • 编写执行脚本kafkaStart.sh

    sed -i "s/broker.id=0/broker.id=$BROKER_ID/g" $WORK_PATH/$KAFKA_PACKAGE_NAME/config/server.properties
    $WORK_PATH/$KAFKA_PACKAGE_NAME/bin/kafka-server-start.sh $WORK_PATH/$KAFKA_PACKAGE_NAME/config/server.properties
  • 编写Dockerfile

    #基础镜像使用java,这样可以免于设置java环境
    FROM java
    
    #作者
    MAINTAINER Bonker <bonker@foxmail.com>
    
    #定义工作目录
    ENV WORK_PATH /usr/local/work
    
    #定义kafka文件夹名称
    ENV KAFKA_PACKAGE_NAME kafka_2.10-0.10.0.0
    
    #创建工作目录
    RUN mkdir -p $WORK_PATH
    
    #把kafka压缩文件复制到工作目录
    COPY ./$KAFKA_PACKAGE_NAME.tgz $WORK_PATH/
    
    #把kafka执行脚本复制到工作目录
    COPY ./kafkaStart.sh $WORK_PATH/
    
    #给shell赋予执行权限
    RUN chmod a+x $WORK_PATH/kafkaStart.sh
    
    #解压缩
    RUN tar -xvf $WORK_PATH/$KAFKA_PACKAGE_NAME.tgz -C $WORK_PATH/
    
    #删除压缩文件
    RUN rm $WORK_PATH/$KAFKA_PACKAGE_NAME.tgz
    
    #执行sed命令修改文件,将连接zk的ip改为link参数对应的zookeeper容器的别名
    RUN sed -i 's/zookeeper.connect=localhost:2181/zookeeper.connect=zkhost:2181/g' $WORK_PATH/$KAFKA_PACKAGE_NAME/config/server.properties
    
    #执行sed命令修改文件,改变brokerId
    #RUN sed -i "s/broker.id=0/broker.id=$BROKER_ID/g" $WORK_PATH/$KAFKA_PACKAGE_NAME/config/server.properties
    
    #CMD $WORK_PATH/$KAFKA_PACKAGE_NAME/bin/kafka-server-start.sh $WORK_PATH/$KAFKA_PACKAGE_NAME/config/server.properties
    CMD $WORK_PATH/kafkaStart.sh
  • 构建kafka

    docker build -t bonker/kafka:2.10-0.10.0.0 .
5,安装docker-compose
  1. 安装python-pip

    yum -y install epel-release
    yum -y install python-pip
  2. 安装docker-compose

    pip install docker-compose
    待安装完成后,执行查询版本的命令,即可安装docker-compose
    docker-compose version
6,运行Dokcer容器
  • 编写docker-compose.yml
version: '2'
services: 
  zk_server: 
    image: bonker/zookeeper:3.4.9
    restart: always
  kafka_server: 
    image: bonker/kafka:2.10-0.10.0.0
    ports: 
      - "9091:9092"
    environment: 
     BROKER_ID: 1
    links: 
      - zk_server:zkhost
    restart: always
  message_producer: 
    image: bonker/kafka:2.10-0.10.0.0
    ports: 
      - "9092:9092"
    environment: 
     BROKER_ID: 2
    links: 
      - zk_server:zkhost
    restart: always
  message_consumer: 
    image: bonker/kafka:2.10-0.10.0.0
    ports: 
      - "9093:9092"
    environment: 
     BROKER_ID: 3
    links: 
      - zk_server:zkhost
    restart: always
  • 启动容器
现在打开终端,在docker-compose.yml所在目录下执行docker-compose up -d,即可启动所有容器
作者:Bonker
出处:http://www.cnblogs.com/Bonker
QQ:519841366
       
本页版权归作者和博客园所有,欢迎转载,但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文链接,否则保留追究法律责任的权利
目录
相关文章
|
19天前
|
消息中间件 Kafka 测试技术
【Kafka揭秘】Leader选举大揭秘!如何打造一个不丢失消息的强大Kafka集群?
【8月更文挑战第24天】Apache Kafka是一款高性能分布式消息系统,利用分区机制支持数据并行处理。每个分区含一个Leader处理所有读写请求,并可有多个副本确保数据安全与容错。关键的Leader选举机制保障了系统的高可用性和数据一致性。选举发生于分区创建、Leader故障或被手动移除时。Kafka提供多种选举策略:内嵌机制自动选择最新数据副本为新Leader;Unclean选举快速恢复服务但可能丢失数据;Delayed Unclean选举则避免短暂故障下的Unclean选举;Preferred选举允许基于性能或地理位置偏好指定特定副本为首选Leader。
37 5
|
15天前
|
负载均衡 调度 Docker
|
17天前
|
消息中间件 监控 Java
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
|
19天前
|
消息中间件 监控 Java
【Kafka节点存活大揭秘】如何让Kafka集群时刻保持“心跳”?探索Broker、Producer和Consumer的生死关头!
【8月更文挑战第24天】在分布式系统如Apache Kafka中,确保节点的健康运行至关重要。Kafka通过Broker、Producer及Consumer间的交互实现这一目标。文章介绍Kafka如何监测节点活性,包括心跳机制、会话超时与故障转移策略。示例Java代码展示了Producer如何通过定期发送心跳维持与Broker的连接。合理配置这些机制能有效保障Kafka集群的稳定与高效运行。
24 2
|
1月前
|
canal Kubernetes Docker
基于Kubernetes v1.25.0和Docker部署高可用集群(03部分)
基于Kubernetes v1.25.0和Docker部署高可用集群(03部分)
|
1月前
|
Kubernetes Ubuntu Linux
基于Kubernetes v1.25.0和Docker部署高可用集群(02部分)
基于Kubernetes v1.25.0和Docker部署高可用集群(02部分)
|
1月前
|
存储 Kubernetes Java
基于Kubernetes v1.25.0和Docker部署高可用集群(说明篇)
docker与kubernetes的区别是:docker是管理当前主机上的容器,k8s是管理多台主机、跨平台的分布式管理系统。Kubernetes的设计初衷是支持可插拔架构,从而利于扩展kubernetes的功能
|
2月前
|
消息中间件 Kafka
kafka 集群环境搭建
kafka 集群环境搭建
57 8
|
2月前
|
关系型数据库 分布式数据库 PolarDB
PolarDB产品使用问题之原PolarDB-X集群无法连接且Docker容器已经被删除,如何恢复数据
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
30天前
|
消息中间件 Java Kafka
Linux——Kafka集群搭建
Linux——Kafka集群搭建
34 0