Standalone+ZooKeeper 高可用部署_3

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
MSE Nacos/ZooKeeper 企业版试用,1600元额度,限量50份
注册配置 MSE Nacos/ZooKeeper,182元/月
简介: 快速学习 Standalone+ZooKeeper 高可用部署_3

开发者学堂课程【大数据实时计算框架 Spark 快速入门Standalone+ZooKeeper 高可用部署_3】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/100/detail/1657


Standalone+ZooKeeper 高可用部署_3


内容简介:

1. standalone 集群模式之 client 模式

2. standalone 集群模式之 cluster 模式

3. High Availability


一、standalone 集群模式:


需要的配置项

1)slaves 文件

node22

node23

node24

2)spark-env.sh

export JAVA_HOME=/usr/soft/ jdk1.7.0_71

export SPARK_MASTER_IP=spark001

export SPARK_MASTER_PORT=7077

export SPARK_WORKER_CORES=1

export SPARK_WORKER_INSTANCES=1

export SPARK_WORKER_MEMORY=1g

./sbin/start-all.sh  

--master 等价于 setMaster

image.png

image.png

点进 Application ID 可以看到如下图内容:

image.png

点进 Application Detall UI,看到以下内容:

image.png

一个 Application 可以根据 active 算子操作被切分为多个 job。Scheduling Mode调度模式,这里默认的是先进先出模式。

对于日志:

Pi is roughly 3.141582368

16/11/29 15:42:36 INFO SparkUI :stopped spark web UI at http://192.168. 80.21:4040

结果打印出来之后,即 application 运行完了以后就会把4040关闭。


1.standalone 集群模式之 client 模式


结果 xshell 可见:

./bin/ spark- submit --class org . apache . spark . examples . sparkPi - -master spark://spark001: 7077 -- executor -memory  1G --total -executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.4.0.jar 100


2.standalone 集群模式之 cluster 模式


结果 spark001:8080里面可见!

./bin/ spark- submit --class org . apache .spark . examples . sparkPi --master spark://spark001: 7077 --deploy-mode cluster --supervise --executor-memory 1G --total -executor-cores  

1 ./lib/spark-examples-1.6.0-hadoop2.4.0.jar 100

提交应用程序,如下:

image.png

发现结果没有打印出来,也没有日志。那么看一下8080页面:

image.png

发现有一个 Running Drivers 驱动程序正在执行,刷新一下页面如下:

image.png

发现 Application 来了,即用 Cluster 模式执行的时候,会有 Application 和 Running Drivers。当用 Cluster 集群模式提交应用程序,会把 Drivers 驱动程序放到集群里面 worker 的某个节点去执行。

一个 Application 会对应一个 Driver:

image.png

Client 模式,这里 Client 指的是提交程序的客户端,和 Driver 在同一个节点。

如果是 Cluster 模式,相当于 Driver 扔到 worker 里面去执行。至于为什么 Cluster 模式里面在客户端看不到结果,如上图,因为 worker 节点会把执行的结果返回给 Driver ,即 Cluster 模式的结果在 Driver 里面,而 Driver 在 Worker 中的某个节点里面。

再刷新一下,看 Application 是否跑完程序,结果如下:

image.png

发现 Application 执行完了,Driver 也就停掉了。

点击 Completed Drivers 下面的 Worker,结果如下:

image.png

再点击 Finished Drivers 下的 Stdout,在这里会打印出结果,

而日志被放在了 stderr 里面。


3.High Availability


1)Standby Masters with ZooKeeper (热备)

2)Single-Node Recovery with Local File System (冷备)

热备,就是 Master 挂了,另外一个会自动来接管。

冷备,就是 Master 如果挂了,需要手动把另一个启动,让它去读 Local File System 里面的信息。

点到 Standby Masters with ZooKeeper 里面:

image.png

相关文章
|
8月前
|
人工智能 边缘计算 运维
容器化浪潮下的AI赋能:智能化运维与创新应用
近年来,容器技术以其轻量、高效、可移植的特性成为云原生时代的基石,推动应用开发和部署方式革新。随着容器化应用规模扩大,传统运维手段逐渐力不从心。AI技术的引入为容器化生态带来新活力,实现智能监控、自动化故障诊断与修复及智能资源调度,提升运维效率和可靠性。同时,AI驱动容器化创新应用,如模型训练、边缘计算和Serverless AI服务,带来更多可能性。未来,AI与容器技术的融合将更加紧密,推动更智能、高效的运维平台和丰富的创新应用场景,助力数字化转型。
|
9月前
|
存储 容灾 API
云端问道19期方案教学-将本地冗余转换同城冗余,提升业务稳定性
本文介绍了阿里云对象存储OSS如何将本地冗余转换为同城冗余,以提升业务稳定性。内容分为五部分:背景介绍、存储冗余概述、创建同城冗余存储Bucket、转换Bucket的存储冗余类型及补充内容。重点讲解了本地冗余与同城冗余的区别、创建和转换同城冗余的具体操作步骤及注意事项。同城冗余能提供更高的数据持久性和服务可用性,确保业务连续性,且在转换过程中不会对业务产生影响。
239 0
|
SQL Java 关系型数据库
MyCAT----读写分离
MyCAT 是一款用 Java 开发的开源数据库中间件,需在 JDK7 以上环境运行。它位于应用与数据库间,负责数据处理与交互,支持读写分离与分库分表。部署时需先安装 JDK,再下载解压 MyCAT,并配置 `server.xml` 和 `schema.xml` 文件定义用户、逻辑库及数据节点。启动 MyCAT 后,可通过 SQL 客户端验证读写分离策略。
|
运维 搜索推荐 Shell
Ansible自动化运维工具之个性化定制SSH连接登录端口(3)
Ansible自动化运维工具之个性化定制SSH连接登录端口(3)
423 0
|
存储 Kubernetes 算法
在K8S中,etcd组件功能及其特点是什么?
在K8S中,etcd组件功能及其特点是什么?
|
运维 Linux Docker
Docker详解(十一)——Docker容器CPU资源限额实战Docker详解
Docker详解(十一)——Docker容器CPU资源限额实战
329 5
|
资源调度 监控 API
资源调度-HPA:基于负载指标自动水平扩容缩容Pod
资源调度-HPA:基于负载指标自动水平扩容缩容Pod
263 0
|
Kubernetes 监控 Docker
容器化程序如何部署
容器化程序如何部署
416 0
|
容灾 NoSQL Redis
关于冗余设计
冗余设计是保证系统和数据高可用的最常的手段。
575 1