前言
一键搭建 zookeeper/hadoop/hive/hbase/sqoop/kafka/spark/kylin
服务器资源
本地Mac有3个虚拟机 server1 192.168.84.128 server2 192.168.84.131 server3 192.168.84.132 yum install wget yum install unzip
安装docker
mkdir /opt/bigdata cd /opt/bigdata # 上传docker-hadoop-test.zip rz unzip docker-hadoop-test.zip cd /opt/bigdata/docker-hadoop-test chmod 777 docker.install.sh chmod 777 compose.install bash docker.install.sh bash compose.install systemctl start docker docker -v
安装zk
依次在3个服务器上做如下操作 chmod 777 zookeeper.sh # 修改下服务器ip vi zookeeper/instances.yml
./zookeeper.sh
确认是否启动成功
安装hadoop集群
思路
免密登陆
./hadoop/ssh下面默认有一份私钥、公钥 这里建议删除默认秘钥改为自己的私钥 秘钥生成方法参考hadoop-key.sh脚本
- 依赖资源包下载
链接:https://pan.baidu.com/s/1PtdIYT2Np4MfDg4oB08urw 密码:iu5w
下载之后根据启动脚本修改文件名后放入/hadoop/tar/即可
- 修改集群信息
修改hadoop/instances.yml,配置集群信息,用于生成hosts文件
编译镜像并上传阿里镜像库
分别在服务器上启动该docker镜像
cd /opt/bigdata/docker-hadoop-test ./hadoop.sh
截止目前搭建好了zk集群环境 将每一个大数据组件安装在了一个docker中
后记
下篇文章咱再介绍下 如何启动每一个组件及组件之间数据如何流转的
源码
https://gitee.com/pingfanrenbiji/docker-hadoop-test