Spark集群搭建记录 | 云计算[CentOS7] | Spark配置

简介: 写在前面step1 Spark下载step2 修改环境变量~/.bashrc/etc/profilestep3 配置Master-文件修改slavesspark-env.shstep4 配置slave节点step5 集群启动step6 web浏览器状态查看step7 配置开机启动(可选)

写在前面


本系列文章索引以及一些默认好的条件在 传送门

要想完成Spark的配置,首先需要完成Hadoop的配置

Hadoop配置教程:链接

47b7a5fed238415bbf19f43a391d62ef.png

若未进行明确说明,均按照root用户操作


step1 Spark下载


下载链接

因为后续可能会涉及到很严重的版本问题,所以说在这里我们为了适配,选择2.4.0版本

8bf45dba14dc4f8881a5b355ad869e82.png

下载后放在master主机的/usr/local下

然后解压并改名:

cd /usr/local

tar -zxvf spark-2.4.0-bin-without-hadoop.tgz.gz

mv spark-2.4.0-bin-without-hadoop spark

最后改变拥有者为:root

chown -R root:root spark


step2 修改环境变量


配置文件修改请勿盲目CV,应根据自己实际情况确定


~/.bashrc


vim ~/.bashrc

加入:

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
export JAVA_LIBRARY_PATH=/usr/local/hadoop/lib/native


source一下使其生效

source ~/.bashrc


/etc/profile


vim /etc/profile

加入:

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin


source /etc/profile


step3 配置Master-文件修改


slaves


cd /usr/local/spark/conf

cp slaves.template slaves

vim slaves

修改为:

slave1
slave2


博主去掉了里面的localhost


spark-env.sh


cp spark-env.sh.template spark-env.sh

vim spark-env.sh

配置文件修改请勿盲目CV,应根据自己实际情况确定

比如JAVA_HOME、SPARK_MASTER_IP

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_MASTER_IP= 这里要写上master的IP
export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64
export HADOOP_HOME=/usr/local/hadoop
export SPARK_WORKER_MEMORY=1024m
export SPARK_WORKER_CORES=1


step4 配置slave节点


在主机操作:

cd /usr/local

tar -zcf spark.master.tar.gz spark

slave01-315是博主的slave主机名,请根据自身实际情况自行修改

scp spark.master.tar.gz slave01-315:/usr/local/spark.master.tar.gz

切换slave01-315机器进行操作:

cd /usr/local

tar -zxf spark.master.tar.gz

自行查看是否解压后文件夹名字为spark,如若不是请自行改名为spark

chown -R root /usr/local/spark

rm -rf spark.master.tar.gz


在主机操作:

cd /usr/local

slave02-315是博主的slave主机名,请根据自身实际情况自行修改

scp spark.master.tar.gz slave02-315:/usr/local/spark.master.tar.gz

切换slave02-315机器进行操作:

cd /usr/local

tar -zxf spark.master.tar.gz

自行查看是否解压后文件夹名字为spark,如若不是请自行改名为spark

chown -R root /usr/local/spark

rm -rf spark.master.tar.gz


step5 集群启动


在主机操作:

启动hadoop:

/usr/local/hadoop/sbin/start-all.sh

启动spark的Master

/usr/local/spark/sbin/start-master.sh

启动spark所有的slave

/usr/local/spark/sbin/start-slaves.sh

关闭集群只需要将start换成stop

step6 web浏览器状态查看


进入8080端口进行查看:

91e413f63ccb4667ae319accb4d78683.png


进入spark-shell:

e5b50d6fbd8b4e1b8127f8a9ea14e17d.png


然后进入web浏览器查看4040端口:

50e93bf8fa384d30934552cf46de1ada.png


step7 配置开机启动(可选)


vim /etc/rc.local

请根据自己实际情况添加,切勿满目CV

su - root -c /usr/local/hadoop/sbin/start-all.sh
su - root -c /usr/local/spark/sbin/start-master.sh
su - root -c /usr/local/spark/sbin/start-slaves.sh


到此,spark配置结束

下一篇(运行scala程序实现单词技术)已经实现择时更新~,敬请期待

到时你将看到:

ecb4c174b0da4f95bf0b249515363f5d.png


55d74689b9014c5083f16886b4410964.png


caa0d1ea79414668bce4a705c8e6a8c5.png


文章知识点与官方知识档案匹配,可进一步学习相关知识

CS入门技能树Linux环境安装安装CentOS3163 人正在系统学习中


目录
相关文章
|
存储 资源调度 负载均衡
云计算——常见集群策略
云计算——常见集群策略
666 0
|
消息中间件 Kafka Linux
Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群
Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群
256 0
|
6月前
|
分布式计算 Hadoop Java
CentOS中构建高可用Hadoop 3集群
这个过程像是在一个未知的森林中探索。但当你抵达终点,看到那个熟悉的Hadoop管理界面时,所有的艰辛都会化为乌有。仔细观察,尽全力,这就是构建高可用Hadoop 3集群的挑战之旅。
253 21
|
7月前
|
Java Linux
CentOS环境搭建Elasticsearch集群
至此,您已成功在CentOS环境下搭建了Elasticsearch集群。通过以上介绍和步骤,相信您对部署Elasticsearch集群有了充分的了解。最后祝您在使用Elasticsearch集群的过程中顺利开展工作!
441 22
|
分布式计算 Hadoop Java
Hadoop集群搭建,基于3.3.4hadoop和centos8【图文教程-从零开始搭建Hadoop集群】,常见问题解决
本文是一份详细的Hadoop集群搭建指南,基于Hadoop 3.3.4版本和CentOS 8操作系统。文章内容包括虚拟机创建、网络配置、Java与Hadoop环境搭建、克隆虚拟机、SSH免密登录设置、格式化NameNode、启动Hadoop集群以及通过UI界面查看Hadoop运行状态。同时,还提供了常见问题的解决方案。
Hadoop集群搭建,基于3.3.4hadoop和centos8【图文教程-从零开始搭建Hadoop集群】,常见问题解决
|
存储 Kubernetes 负载均衡
CentOS 7.9二进制部署K8S 1.28.3+集群实战
本文详细介绍了在CentOS 7.9上通过二进制方式部署Kubernetes 1.28.3+集群的全过程,包括环境准备、组件安装、证书生成、高可用配置以及网络插件部署等关键步骤。
2026 4
CentOS 7.9二进制部署K8S 1.28.3+集群实战
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
981 4
|
Kubernetes Linux API
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇
该博客文章详细介绍了在CentOS 7.6操作系统上使用kubeadm工具部署kubernetes 1.17.2版本的测试集群的过程,包括主机环境准备、安装Docker、配置kubelet、初始化集群、添加节点、部署网络插件以及配置k8s node节点管理api server服务器。
406 0
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇
|
物联网 应用服务中间件 Linux
CentOS7.9 Nginx+EMQX集群组建MQTTS平台
通过以上步骤,您已成功搭建了一个基于CentOS 7.9、Nginx和EMQX的MQTTS平台。这个平台既能保证数据传输的安全性,又能利用Nginx的负载均衡能力和EMQX的高性能、高并发处理能力,实现稳定高效的消息服务。在部署和配置过程中,务必注意证书、域名以及EMQX配置的正确性,确保系统安全和稳定运行。此外,定期更新软件和系统,以及监控系统性能,也是保证MQTTS平台长期稳定运行的重要环节。
404 4
|
物联网 应用服务中间件 Linux
CentOS7.9 Nginx+EMQX集群组建MQTTS平台
通过以上步骤,您已成功搭建了一个基于CentOS 7.9、Nginx和EMQX的MQTTS平台。这个平台既能保证数据传输的安全性,又能利用Nginx的负载均衡能力和EMQX的高性能、高并发处理能力,实现稳定高效的消息服务。在部署和配置过程中,务必注意证书、域名以及EMQX配置的正确性,确保系统安全和稳定运行。此外,定期更新软件和系统,以及监控系统性能,也是保证MQTTS平台长期稳定运行的重要环节。
436 3