开发者社区> 问答> 正文

简要描述Spark分布式集群搭建的步骤

简要描述Spark分布式集群搭建的步骤

展开
收起
茶什i 2019-10-25 16:14:11 1915 0
1 条回答
写回答
取消 提交回答
  • 1)准备linux环境,设置集群搭建账号和用户组,设置ssh,关闭防火墙,关闭seLinux,配置host,hostname
    2)配置jdk到环境变量
    3)搭建hadoop集群,如果要做master ha,需要搭建zookeeper集群 修改hdfs-site.xml,hadoop_env.sh,yarn-site.xml,slaves等配置文件
    4)启动hadoop集群,启动前要格式化namenode
    5)配置spark集群,修改spark-env.xml,slaves等配置文件,拷贝hadoop相关配置到spark conf目录下
    6)启动spark集群。

    2019-10-25 16:21:45
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
基于社区的分布式 风险感知模型 立即下载
如何利用Redisson分布式化传统Web项目 立即下载
FLASH:大规模分布式图计算引擎及应用 立即下载