开发者社区> 问答> 正文

配置Spark HA需要完成的步骤有哪些?

配置Spark HA需要完成的步骤有哪些?

展开
收起
游客daliwbfb2wo66 2021-12-07 19:28:23 193 0
1 条回答
写回答
取消 提交回答
  • 1.在 master01节点上修改spark-env.sh配置文件

    2.将配置文件同步到所有节点。

    3.在master01上执行sbin/start-all.sh脚本,启动集群并启动第一个master节点,然后在master02上执行sbin/start-master.sh启动第二个master节点。

    4.程序中spark集群的访问地址需要改成: spark://master01:port1,master02:port2

    2021-12-07 19:28:39
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载