大数据组件-Hadoop全分布式部署

本文涉及的产品
云防火墙,500元 1000GB
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 大数据组件-Hadoop全分布式部署

 image.gif编辑

👨🏻‍🎓博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家🌟

🌈擅长领域:Java、大数据、运维、电子

🙏🏻如果本文章各位小伙伴们有帮助的话,🍭关注+👍🏻点赞+🗣评论+📦收藏,相应的有空了我也会回访,互助!!!

🤝另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

 


    • 集群规划

    image.gif编辑

      • 检查三台机器之间是否可以ping通这里的三台主机ip分别如下:
      #hadoop1
      192.168.123.75
      #hadoop2 
      192.168.123.76
      #hadoop3
      192.168.123.77
      • image.gif
      • 在/etc/sudoers中设置hadoop的权限(三台)
      root   ALL=(ALL)      ALL
      hadoop ALL=(ALL)     NOPASSWD:ALL
      • image.gif
      • 修改分别修改三台机的network和hostname的名字为:
        192.168.123.75→master
        192.168.123.76→slave1
        192.168.123.77→slave2
      • 查看并永久关闭防火墙
      #查看防火墙状态
      systemctl status firewalld.service
      #关闭防火墙
      systemctl stop firewalld.service
      #永久关闭防火墙
      systemctl disable firewalld.server
      • image.gif
      • 开启SSH免密登录
        • master:
        #生产密钥对
        ssh-keygen -t rsa
        #三连击回车
        ssh-copy-id master
        #将master的公钥传到远程主机上
        scp -r /home/hadoop/.ssh/authorized_keys slave1:/home/hadoop/.ssh/authorized_keys 
        scp -r /home/hadoop/.ssh/authorized_keys slave2:/home/hadoop/.ssh/authorized_keys
        • image.gif
        • slave1:
        #生产密钥对
        ssh-keygen -t rsa
        #三连击回车
        ssh-copy-id master
        • image.gif
        • slave2:
        #生产密钥对
        ssh-keygen -t rsa
        #三连击回车
        ssh-copy-id master
        • image.gif
        • 验证登录其他节点是否无需密码,无需密码说明成功
        ssh slave1
        • image.gif
          • 使用xftp上传jdk-8u144-linux-x64.tar.gzhadoop-2.6.0.tar.gz 到/usr/local/src/目录下
          • 解压文件,并且重命名
          tar -zxvf jdk-8u144-linux-x64.tar.gz
          tar -zxvf hadoop-2.6.0.tar.gz
          • image.gif
          mv jdk1.8.0-bin jdk8
          mv hadoop2.6.0-bin hadoop
          • image.gif
          • 在~/.bash_profile配置环境变量
          export JAVA_HOME=/usr/local/src/jdk8
          export PATH=$PATH:$JAVA_HOME/bin
          export HADOOP_HOME=/usr/local/src/hadoop
          export PATH=$PATH:$HADOOP_HOME/sbin
          • image.gif
          #使环境变量生效
          source ~/.bash_profile
          • image.gif
            • 测试jdk是否正常
            java -version
            • image.gif
              • 在/usr/local/src/hadoop/etc/hadoop/下做以下配置
                • 配置slaves
                #对应每台的host映射
                master
                slave1
                slave2
                export JAVA_HOME=/use/local/src/jdk8
                • image.gif
                • 配置core-site.xml
                <configuration>
                        <property>
                                  <name>fs.defaultFS</name>
                                  <value>hdfs://master:9000</value>
                        </property>
                        <property>
                                  <name>hadoop.tmp.dir</name>
                                  <value>/usr/local/src/hadoop/data/tmp</value>
                        </property>
                </configuartion>
                • image.gif
                • 配置hdfs-site.xml
                <configuration>
                        <property>
                                  <name>dfs.replicaiotn</name>
                                  <value>3</value>
                        </property>
                        <property>
                                  <name>dfs.namenode.secondary.http-address</name>
                                  <value>slave2:50090</value>
                        </property>
                </configuartion>
                • image.gif
                • 配置yarn-site.xml
                <configuration>
                        <property>
                                  <name>yarn.nodemanager.aux-services</name>
                                  <value>mapreduce_shuffle</value>
                        </property>
                        <property>
                                  <name>yarn.resourcemanager.hostname</name>
                                  <value>slave1</value>
                        </property>
                </configuartion>
                • image.gif
                • 配置mapred-site.xml
                <configuration>
                        <property>
                                  <name>mapreduce.framework.name</name>
                                  <value>yarn</value>
                        </property>
                </configuartion>
                • image.gif
                  • 分发配置文件及软件
                    • 分发环境变量
                    #目前master位于~/目录下
                    scp -r ~/.bash_profiel slave1:$PWD
                    scp -r ~/.bash_profiel slave2:$PWD
                    • image.gif
                      • 别忘了到slave1、slave2上source一把
                        • 分发jdk
                        #当前master位于/usr/local/src/目录下
                        scp -r ./jdk8 slave1:$PWD
                        scp -r ./jdk8 slave2:$PWD
                        • image.gif
                        • 分发hadoop
                        #当前master为于/usr/local/src/目录下
                        scp -r ./hadoop slave1:$PWD
                        scp -r ./hadoop slave2:$PWD
                        • image.gif
                          • 格式化hdfs磁盘
                          #在集群的主节点上进行格式化这里为master,格式化status应该为0,不为0需要根据info进行修改
                          hdfs namenode -format
                          • image.gif
                          • 启动hdfs和yarn
                          #master节点上启动
                          start-dfs.sh
                          #在有resourcemanager所在的机器上使用
                          start-yarn.sh
                          • image.gif
                            • 启动之后可以通过http://master:9000进行网页访问,可以看到集群信息
                              相关实践学习
                              基于MaxCompute的热门话题分析
                              Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
                              相关文章
                              |
                              5月前
                              |
                              监控 Linux 应用服务中间件
                              Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
                              通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
                              1582 57
                              |
                              8月前
                              |
                              Java 关系型数据库 MySQL
                              新一代 Cron-Job分布式任务调度平台 部署指南
                              简单易用、超低延迟,支持用户权限管理、多语言客户端和多租户接入的分布式任务调度平台。 支持任何Cron表达式的任务调度,支持常用的分片和随机策略;支持失败丢弃、失败重试的失败策略;支持动态任务参数。
                              239 113
                              |
                              5月前
                              |
                              NoSQL Java Redis
                              分布式锁—6.Redisson的同步器组件
                              Redisson提供了多种分布式同步工具,包括分布式锁、Semaphore和CountDownLatch。分布式锁包括可重入锁、公平锁、联锁、红锁和读写锁,适用于不同的并发控制场景。Semaphore允许多个线程同时获取锁,适用于资源池管理。CountDownLatch则用于线程间的同步,确保一组线程完成操作后再继续执行。Redisson通过Redis实现这些同步机制,提供了高可用性和高性能的分布式同步解决方案。源码剖析部分详细介绍了这些组件的初始化和操作流程,展示了Redisson如何利用Redis命令和
                              |
                              6月前
                              |
                              SQL 数据可视化 网络安全
                              YashanDB分布式可视化部署
                              本文介绍YashanDB的分布式部署流程,涵盖服务端安装、数据库基本信息与服务器配置、节点信息设置、建库参数调整、环境变量配置及安装结果检查等步骤。通过可视化Web界面操作,详细说明了各环节配置方法和注意事项,确保用户顺利完成数据库集群的搭建与初始化设置。适用于需要分布式数据库部署的场景,提供全面的操作指导。
                              YashanDB分布式可视化部署
                              |
                              7月前
                              |
                              运维 Kubernetes Java
                              Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
                              本文由仁励家网络科技(杭州)有限公司架构师赵云兴、葛志刚撰写,探讨了公司在优化HR SaaS解决方案时遇到的系统资源浪费和运维成本高的问题。通过引入Koupleless框架,成功将模块体积从500M缩减至5M以下,部署时间从6分钟缩短至3分钟,并大幅节省服务器资源。文章详细介绍了Koupleless的部署方案及优化措施,感谢Koupleless团队的专业支持,使人力家实现了多应用合并部署,降低了运维成本。
                              Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
                              |
                              7月前
                              |
                              运维 Kubernetes Java
                              Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
                              通过引入Koupleless框架,解决了多应用部署中资源浪费和运维成本高的问题,实现了模块瘦身、快速部署及流量控制优化,大幅降低了服务器资源占用和发布耗时,提升了系统稳定性和运维效率。最终,人力家成功实现了多应用的轻量集中部署,显著减少了运维成本。
                               Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
                              |
                              8月前
                              |
                              人工智能 Kubernetes 异构计算
                              大道至简-基于ACK的Deepseek满血版分布式推理部署实战
                              大道至简-基于ACK的Deepseek满血版分布式推理部署实战
                              432 5
                              |
                              8月前
                              |
                              人工智能 Kubernetes 异构计算
                              大道至简-基于ACK的Deepseek满血版分布式推理部署实战
                              本教程演示如何在ACK中多机分布式部署DeepSeek R1满血版。
                              |
                              9月前
                              |
                              数据采集 人工智能 分布式计算
                              MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
                              阿里云推出的MaxFrame是链接大数据与AI的分布式Python计算框架,提供类似Pandas的操作接口和分布式处理能力。本文从部署、功能验证到实际场景全面评测MaxFrame,涵盖分布式Pandas操作、大语言模型数据预处理及企业级应用。结果显示,MaxFrame在处理大规模数据时性能显著提升,代码兼容性强,适合从数据清洗到训练数据生成的全链路场景...
                              402 5
                              MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
                              |
                              9月前
                              |
                              人工智能 分布式计算 大数据
                              MaxFrame 产品评测:大数据与AI融合的Python分布式计算框架
                              MaxFrame是阿里云MaxCompute推出的自研Python分布式计算框架,支持大规模数据处理与AI应用。它提供类似Pandas的API,简化开发流程,并兼容多种机器学习库,加速模型训练前的数据准备。MaxFrame融合大数据和AI,提升效率、促进协作、增强创新能力。尽管初次配置稍显复杂,但其强大的功能集、性能优化及开放性使其成为现代企业与研究机构的理想选择。未来有望进一步简化使用门槛并加强社区建设。
                              406 8

                              热门文章

                              最新文章