Spark高可用集群搭建HA

简介: Spark高可用集群搭建HA

spark2.4.4-hadoop2.7 请对用好你的版本


准备好6台机器 一台master 6台worker

解压完成后

进入conf目录 修改两个文件


1.spark-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_231
export SPARK_MASTER_HOST=spark00
export SPARK_MASTER_PORT=7077
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=spark00:2181,spark01:2181,spark02:2181 -Dspark.deploy.zookeeper.dir=/spark"


2.拷贝到所有的机器

目录
相关文章
|
5月前
|
分布式计算 Linux Spark
179 Spark集群安装
179 Spark集群安装
36 0
|
4月前
|
分布式计算 监控 Java
Note_Spark_Day02:Standalone集群模式和使用IDEA开发应用程序
Note_Spark_Day02:Standalone集群模式和使用IDEA开发应用程序
51 0
|
7月前
|
分布式计算 大数据 Spark
基于Docker搭建大数据集群(四)Spark部署
基于Docker搭建大数据集群(四)Spark部署
|
2月前
|
分布式计算 数据处理 Scala
Spark 集群和 Scala 编程语言的关系
Spark 集群和 Scala 编程语言的关系
29 0
|
6月前
|
分布式计算 资源调度 Hadoop
Spark on Yarn集群模式搭建及测试
Spark on Yarn集群模式搭建及测试
156 0
|
7月前
|
分布式计算 资源调度 监控
Spark Yarn模式部署集群
Spark Yarn模式部署集群
49 1
|
7月前
|
分布式计算 监控 大数据
大数据Spark Standalone集群 2
大数据Spark Standalone集群
44 0
|
7月前
|
存储 分布式计算 资源调度
大数据Spark Standalone集群 1
大数据Spark Standalone集群
64 0
|
9月前
|
机器学习/深度学习 存储 分布式计算
spark集群 分类器 部署
spark集群 分类器 部署
|
11月前
|
存储 分布式计算 资源调度
Spark集群环境搭建(standalone模式)
Spark集群环境搭建(standalone模式)