测试环境机器部署图

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,182元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
MSE Nacos/ZooKeeper 企业版试用,1600元额度,限量50份
简介:

一、需求

  在本地上部署了两套环境,一套用于开发环境,另一套用于测试环境。在这里,我抽其测试这套环境,做了个总结,具体安装步聚,在这里不作详细解释,如果需要,我可以提供一份我总结文档作参考。每套环境上用到了11台机器,注意了,在这里用到全部是cdm5.5.0版本

http://archive.cloudera.com/cdh5/cdh/5/


二、集群规划

1、测试集群

wKiom1c67vuQR8q3AAPwCn-ZVOs785.jpg


2、实时环境

wKioL1c67-aD_OftAAHdvayg37E799.jpg


三、依赖关系说明

 后台系统包括以下组件:zookeeper、hdfs、yarn、jobhistoryserver、hive metastore、hiveserver2、hbase、kafka 和 jstorm,以上个组件存在先后依赖关系,如下图所示

wKiom1c68PTwbS92AABEVXPo92o282.png

在上图中,上层的组件依赖下层的组件,所以启动的时候要由下往上启动,停止的时候要由上往下停止。

 

四、后台运维

1、测试环境部署及

zookeeper:testhadoop240、testhadoop241、testhadoop242

hadoop:testhadoop231、testhadoop232、testhadoop233、testhadoop234、testhadoop235、testhadoop236

hive:testhadoop233

hbase:testhadoop231、testhadoop232、testhadoop233

kafka:testhadoop240、testhadoop241、testhadoop242

jstorm:testhadoop240、testhadoop241、testhadoop242

mysql,nginx:testhadoop245

2,启停命令说明

2.1 zookeeper

部署机器:testhadoop240、testhadoop241、testhadoop242

部署位置:/usr/local/zookeeper

启动命令:/usr/local/zookeeper/bin/zkServer.sh start (分别在每台机器执行)

停止命令:/usr/local/zookeeper/bin/zkServer.shstop (分别在每台机器执行)

启动验证:/usr/local/zookeeper/bin/zkCli.sh-server testhadoop240:2181


2.2 hdfs

部署机器:testhadoop231、testhadoop232、testhadoop233、testhadoop234、testhadoop235、testhadoop236

部署位置:/usr/local/hadoop

启动命令:/usr/local/hadoop/sbin/start-dfs.sh (在 testhadoop231 或 testhadoop232上执行)

停止命令:/usr/local/hadoop/sbin/stop-dfs.sh (在 testhadoop231或 testhadoop232 上执行)

启动验证:访问 http://test.hdfs1.xxx.com 或 http://test.hdfs2.xxx.com


2.3 yarn

部署机器:跟 hdfs 相同

部署位置:跟hdfs 相同

启动命令:/usr/local/hadoop/sbin/start-yarn.sh (在 testhadoop231 或 testhadoop232上执行)

停止命令:/usr/local/hadoop/sbin/stop-yarn.sh (在 testhadoop231或 testhadoop232 上执行)

启动验证:访问 http://test.rm1.xxx.com 或 http://test.rm2.xxx.com


2.4 jobhistoryserver

部署机器:testhadoop231

部署位置:跟hdfs 相同

启动命令:/usr/local/hadoop/sbin/mr-jobhistory-daemon.sh start historyserver

停止命令:/usr/local/hadoop/sbin/mr-jobhistory-daemon.shstop historyserver

启动验证:访问 http://test.mapreduce.xxx.com


2.5 hive metastore

部署机器:testhadoop233

部署位置:/usr/local/hive

启动命令:/usr/local/hive/bin/start-metastore.sh

停止命令:ps -ef |grep MetaStore  找到进程号,把它kill掉

启动验证:待补充


2.6 hiveserver2

部署机器:testhadoop233

部署位置:/usr/local/hive

启动命令:/usr/local/hive/bin/start-hiveserver2.sh

停止命令:ps -ef |grep HiveServer2 找到进程号,把它kill掉

启动验证:待补充

 

2.7 hbase

部署机器:testhadoop231、testhadoop232、testhadoop233

部署位置:/usr/local/hbase

启动命令:/usr/local/hbase/bin/start-hbase.sh (testhadoop231)

停止命令:/usr/local/hbase/bin/stop-hbase.sh (testhadoop231)

启动验证:http://test.hbase.xxx.com

 

2.8 kafka 

部署机器:testhadoop240、testhadoop241、testhadoop242

部署位置:/usr/local/kafka_2.9.2-0.8.2.2

启动命令:/usr/local/kafka_2.9.2-0.8.2.2/starKafkaServer.sh

停止命令:ps -ef |grep kafka 找到进程号,把它kill掉

启动验证:

使用hadoop2用户登录dchadoop213、dchadoop214、dchadoop215中的任意一台机器,执行以下命令:

a.创建topic

1
/usr/local/kafka_2 .9.2-0.8.2.2 /bin/kafka-topics .sh--zookeeper devhadoop237:2181,devhadoop238:2181,devhadoop239:2181 /kafka--create   --topic mytest --replication-factor 1 --partitions 3


b.查看topic列表

1
2
/usr/local/kafka_2 .9.2-0.8.2.2 /bin/
kafka-topics.sh--zookeeper devhadoop237:2181,devhadoop238:2181,devhadoop239:2181 /kafka  --list


c.创建生产者

1
2
/usr/local/kafka_2 .9.2-0.8.2.2 /bin/
kafka-console-producer.sh--broker-list devhadoop237:9092,devhadoop238:9092,devhadoop239:9092 --topicmytest


d.创建消费者

1
2
/usr/local/kafka_2 .9.2-0.8.2.2 /bin/
kafka-console-consumer.sh--zookeeper devhadoop237:2181,devhadoop238:2181,devhadoop239:2181 /kafka  --topicmytest --from-beginning


其中 mytest 是用户指定的topic,实际开发时需要根据业务自定义topic

 

2.9 jstorm

部署机器:testhadoop240、testhadoop241、testhadoop242

部署位置:/usr/local/jstorm-2.1.0/

启动命令:

启动nimbus:nohupjstorm nimbus & (在 testhadoop240上执行)

启动 supervisor:nohupjstorm supervisor &(在 testhadoop240~242上执行)

启动 web-ui:/usr/local/tomcat/bin/startup.sh

 

停止命令:

停止nimbus:ps -ef |grep nimbus 找到进程号,把它kill掉 (在 testhadoop240上执行)

停止 supervisor:ps -ef|grep supervisor 找到进程号,把它kill掉(在 testhadoop240~242上执行)

停止 web-ui:/usr/local/tomcat/bin/shutdown.sh

 

启动验证:http://test.jstorm.xxx.com











本文转自 zouqingyun 51CTO博客,原文链接:http://blog.51cto.com/zouqingyun/1774449,如需转载请自行联系原作者
目录
相关文章
|
10月前
|
机器学习/深度学习 自然语言处理 API
阿里云零门槛、轻松部署您的专属 DeepSeek模型体验测试
DeepSeek R1是基于Transformer架构的先进大规模深度学习模型,2025年1月20日发布并开源,遵循MIT License。它在自然语言处理等任务上表现出色,高效提取特征,缩短训练时间。阿里云推出的满血版方案解决了服务器压力问题,提供100万免费token,云端部署降低成本,用户可快速启动体验。虽然回答速度有待提升,但整体表现优异,备受关注。
388 8
|
机器学习/深度学习 编解码 监控
目标检测实战(六): 使用YOLOv8完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
这篇文章详细介绍了如何使用YOLOv8进行目标检测任务,包括环境搭建、数据准备、模型训练、验证测试以及模型转换等完整流程。
21595 59
目标检测实战(六): 使用YOLOv8完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
|
11月前
|
JavaScript NoSQL Java
基于SpringBoot+Vue实现的大学生体质测试管理系统设计与实现(系统源码+文档+数据库+部署)
面向大学生毕业选题、开题、任务书、程序设计开发、论文辅导提供一站式服务。主要服务:程序设计开发、代码修改、成品部署、支持定制、论文辅导,助力毕设!
|
11月前
|
Java 测试技术 应用服务中间件
Spring Boot 如何测试打包部署
本文介绍了 Spring Boot 项目的开发、调试、打包及投产上线的全流程。主要内容包括: 1. **单元测试**:通过添加 `spring-boot-starter-test` 包,使用 `@RunWith(SpringRunner.class)` 和 `@SpringBootTest` 注解进行测试类开发。 2. **集成测试**:支持热部署,通过添加 `spring-boot-devtools` 实现代码修改后自动重启。 3. **投产上线**:提供两种部署方案,一是打包成 jar 包直接运行,二是打包成 war 包部署到 Tomcat 服务器。
303 10
|
机器学习/深度学习 监控 计算机视觉
目标检测实战(八): 使用YOLOv7完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
本文介绍了如何使用YOLOv7进行目标检测,包括环境搭建、数据集准备、模型训练、验证、测试以及常见错误的解决方法。YOLOv7以其高效性能和准确率在目标检测领域受到关注,适用于自动驾驶、安防监控等场景。文中提供了源码和论文链接,以及详细的步骤说明,适合深度学习实践者参考。
3378 1
目标检测实战(八): 使用YOLOv7完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
|
敏捷开发 Devops 测试技术
自动化测试中的持续集成与持续部署
在现代软件开发实践中,自动化测试是确保软件质量和快速迭代的关键。本文将探讨自动化测试如何与持续集成(CI)和持续部署(CD)流程相结合,以提高开发效率和软件质量。我们将分析CI/CD管道中自动化测试的最佳实践,以及如何克服实施过程中的挑战。
210 6
|
缓存 自然语言处理 并行计算
基于NVIDIA A30 加速卡推理部署通义千问-72B-Chat测试过程
本文介绍了基于阿里云通义千问72B大模型(Qwen-72B-Chat)的性能基准测试,包括测试环境准备、模型部署、API测试等内容。测试环境配置为32核128G内存的ECS云主机,配备8块NVIDIA A30 GPU加速卡。软件环境包括Ubuntu 22.04、CUDA 12.4.0、PyTorch 2.4.0等。详细介绍了模型下载、部署命令及常见问题解决方法,并展示了API测试结果和性能分析。
4698 1
|
机器学习/深度学习 并行计算 数据可视化
目标分类笔记(二): 利用PaddleClas的框架来完成多标签分类任务(从数据准备到训练测试部署的完整流程)
这篇文章介绍了如何使用PaddleClas框架完成多标签分类任务,包括数据准备、环境搭建、模型训练、预测、评估等完整流程。
1002 0
目标分类笔记(二): 利用PaddleClas的框架来完成多标签分类任务(从数据准备到训练测试部署的完整流程)
|
机器学习/深度学习 数据采集 算法
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
这篇博客文章介绍了如何使用包含多个网络和多种训练策略的框架来完成多目标分类任务,涵盖了从数据准备到训练、测试和部署的完整流程,并提供了相关代码和配置文件。
489 0
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
|
机器学习/深度学习 XML 并行计算
目标检测实战(七): 使用YOLOX完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
这篇文章介绍了如何使用YOLOX完成图像目标检测任务的完整流程,包括数据准备、模型训练、验证和测试。
1325 0
目标检测实战(七): 使用YOLOX完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)