Spark-集群安装、部署、启动、测试(1.6.3)稳定版

简介: Spark-集群安装、部署、启动、测试(1.6.3)稳定版

Spark-集群安装、部署、启动、测试(1.6.3版)

一、下载地址:

http://spark.apache.org/releases/spark-release-1-6-3.html

二、安装

将其放在Linux的目录中,解压

我解压的目录是:

/usr/local/spark-1.6.3-bin-hadoop2.6

三、配置spark

3.1 进入到spark的安装目录下

cd /usr/local/spark-1.6.3-bin-hadoop2.6

3.2 进入conf目录重命名并修改spark-env.sh.template

mv spark-env.sh.template spark-env.sh

3.3 进入spark-env.sh文件,在配置文件中添加如下配置。

vi spark-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_151/
export SPARK_MASTER_IP=centos01
export SPARK_MASTER_PORT=7077

保存退出

3.4 重命名并修改slaves.template

mv slaves.template slaves

3.5 进入slaves修改配置,添加子节点所在的位置。

centos01
centos02
MyLinux

这几个乃是主机名(备注:已经做了提前的映射,主机名和IP地址要有映射)

3.6 分发到 其他两台服务器

scp -r spark-1.6.3-bin-hadoop2.6/ MyLinux:/usr/local/
scp -r spark-1.6.3-bin-hadoop2.6/ centos02:/usr/local/

部署完成。

四、Spark shell启动及提交任务(提前关闭防火墙,service iptables stop)

4.1 进入sbin/进行启动

./usr/local/spark-1.6.3-bin-hadoop2.6/sbin/start-all.sh

4.2 进入bin目录,运行脚本 sprak-shell

/usr/local/spark-1.6.3-bin-hadoop2.6/bin

(1)单机版:

./spark-shell --master spark:centos01:7077

(2)集群版 (指定内存和cpu核数 ):

./spark-shell --master spark://centos01:7077 --executor-memory 512m --total-executor-cores 2

--total-executor-core CPU核数

--executor-memory 内存大小(每个节点)

(3)启动结果

(4)Web UI

4.3 scala命令做一个简单计数统计

sc.parallelize(List("hello spark","hello scala","scala Java")).flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortBy(_._2).collect

结果:

目录
相关文章
|
1月前
|
SQL 分布式计算 NoSQL
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
40 4
|
1月前
|
存储 大数据 Apache
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
23 0
|
1月前
|
存储 SQL 分布式计算
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
35 0
|
1月前
|
SQL 分布式计算 大数据
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(一)
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(一)
30 0
|
1月前
|
SQL 分布式计算 大数据
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(二)
大数据-100 Spark 集群 Spark Streaming DStream转换 黑名单过滤的三种实现方式(二)
29 0
|
1月前
|
消息中间件 分布式计算 Kafka
大数据-99 Spark 集群 Spark Streaming DStream 文件数据流、Socket、RDD队列流
大数据-99 Spark 集群 Spark Streaming DStream 文件数据流、Socket、RDD队列流
30 0
|
分布式计算 大数据 调度
Spark 集群搭建_高可用配置|学习笔记
快速学习 Spark 集群搭建_高可用配置
Spark 集群搭建_高可用配置|学习笔记
|
分布式计算 Hadoop Linux
Spark集群搭建记录 | 云计算[CentOS7] | Spark配置
写在前面 step1 Spark下载 step2 修改环境变量 ~/.bashrc /etc/profile step3 配置Master-文件修改 slaves spark-env.sh step4 配置slave节点 step5 集群启动 step6 web浏览器状态查看 step7 配置开机启动(可选)
271 0
Spark集群搭建记录 | 云计算[CentOS7] | Spark配置
|
分布式计算 Hadoop Java
|
分布式计算 Spark Hadoop

热门文章

最新文章