接上篇:https://developer.aliyun.com/article/1623056?spm=a2c6h.13148508.setting.16.49764f0ens366P
分发软件
你可以用的方式完成,我这里用之前写好的 rsync-script 工具进行分发,刚才我们配置都是在 h121 节点上完成的,所以接下来,我们从 h121 节点分发到 h122、h123
rsync-script apache-druid-30.0.0
运行结果如下图所示:
分发之后,要注意你需要修改的东西:
- common.runtime.properties中的 druid.host 为所在节点的IP
- h121 h122 h123 上都配置好环境、环境变量等内容
启动服务
ZK启动
在三台节点上都需要启动ZK,并且需要组成ZK集群。
这部分内容之前已经有 ZooKeeper集群环境搭建,且在多个环节中,如Kafka集群环节中已经测试过。
zkServer.sh start
启动 Hadoop
start-all.sh # 或者只启动 dfs也行 start-dfs.sh
执行结果如下图所示:
Druid启动
h121 查询节点
这里是查询节点
cd /opt/servers/apache-druid-30.0.0 nohup start-cluster-query-server &
运行结果如下图所示:
h122 数据节点
这里是数据节点
cd /opt/servers/apache-druid-30.0.0 nohup start-cluster-data-server &
运行结果如下图所示:
h123 主节点
这里是主节点
cd /opt/servers/apache-druid-30.0.0 nohup start-cluster-master-no-zk-server &
运行结果如下所示:
日志查看
可以在log下查看,我这里是查看了 nohup 的内容
h121
h122
h123
停止服务
需要在每个节点都执行:
# 在各个节点运行 /opt/servers/apache-druid-30.0.0/bin/service --down
查看界面
http://h121.wzk.icu:8888
页面结果如下:
到此!顺利完成!一路艰难险阻!