大数据组件-Hadoop全分布式部署

本文涉及的产品
云防火墙,500元 1000GB
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 大数据组件-Hadoop全分布式部署

 image.gif编辑

👨🏻‍🎓博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家🌟

🌈擅长领域:Java、大数据、运维、电子

🙏🏻如果本文章各位小伙伴们有帮助的话,🍭关注+👍🏻点赞+🗣评论+📦收藏,相应的有空了我也会回访,互助!!!

🤝另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

 


    • 集群规划

    image.gif编辑

      • 检查三台机器之间是否可以ping通这里的三台主机ip分别如下:
      #hadoop1
      192.168.123.75
      #hadoop2 
      192.168.123.76
      #hadoop3
      192.168.123.77
      • image.gif
      • 在/etc/sudoers中设置hadoop的权限(三台)
      root   ALL=(ALL)      ALL
      hadoop ALL=(ALL)     NOPASSWD:ALL
      • image.gif
      • 修改分别修改三台机的network和hostname的名字为:
        192.168.123.75→master
        192.168.123.76→slave1
        192.168.123.77→slave2
      • 查看并永久关闭防火墙
      #查看防火墙状态
      systemctl status firewalld.service
      #关闭防火墙
      systemctl stop firewalld.service
      #永久关闭防火墙
      systemctl disable firewalld.server
      • image.gif
      • 开启SSH免密登录
        • master:
        #生产密钥对
        ssh-keygen -t rsa
        #三连击回车
        ssh-copy-id master
        #将master的公钥传到远程主机上
        scp -r /home/hadoop/.ssh/authorized_keys slave1:/home/hadoop/.ssh/authorized_keys 
        scp -r /home/hadoop/.ssh/authorized_keys slave2:/home/hadoop/.ssh/authorized_keys
        • image.gif
        • slave1:
        #生产密钥对
        ssh-keygen -t rsa
        #三连击回车
        ssh-copy-id master
        • image.gif
        • slave2:
        #生产密钥对
        ssh-keygen -t rsa
        #三连击回车
        ssh-copy-id master
        • image.gif
        • 验证登录其他节点是否无需密码,无需密码说明成功
        ssh slave1
        • image.gif
          • 使用xftp上传jdk-8u144-linux-x64.tar.gzhadoop-2.6.0.tar.gz 到/usr/local/src/目录下
          • 解压文件,并且重命名
          tar -zxvf jdk-8u144-linux-x64.tar.gz
          tar -zxvf hadoop-2.6.0.tar.gz
          • image.gif
          mv jdk1.8.0-bin jdk8
          mv hadoop2.6.0-bin hadoop
          • image.gif
          • 在~/.bash_profile配置环境变量
          export JAVA_HOME=/usr/local/src/jdk8
          export PATH=$PATH:$JAVA_HOME/bin
          export HADOOP_HOME=/usr/local/src/hadoop
          export PATH=$PATH:$HADOOP_HOME/sbin
          • image.gif
          #使环境变量生效
          source ~/.bash_profile
          • image.gif
            • 测试jdk是否正常
            java -version
            • image.gif
              • 在/usr/local/src/hadoop/etc/hadoop/下做以下配置
                • 配置slaves
                #对应每台的host映射
                master
                slave1
                slave2
                export JAVA_HOME=/use/local/src/jdk8
                • image.gif
                • 配置core-site.xml
                <configuration>
                        <property>
                                  <name>fs.defaultFS</name>
                                  <value>hdfs://master:9000</value>
                        </property>
                        <property>
                                  <name>hadoop.tmp.dir</name>
                                  <value>/usr/local/src/hadoop/data/tmp</value>
                        </property>
                </configuartion>
                • image.gif
                • 配置hdfs-site.xml
                <configuration>
                        <property>
                                  <name>dfs.replicaiotn</name>
                                  <value>3</value>
                        </property>
                        <property>
                                  <name>dfs.namenode.secondary.http-address</name>
                                  <value>slave2:50090</value>
                        </property>
                </configuartion>
                • image.gif
                • 配置yarn-site.xml
                <configuration>
                        <property>
                                  <name>yarn.nodemanager.aux-services</name>
                                  <value>mapreduce_shuffle</value>
                        </property>
                        <property>
                                  <name>yarn.resourcemanager.hostname</name>
                                  <value>slave1</value>
                        </property>
                </configuartion>
                • image.gif
                • 配置mapred-site.xml
                <configuration>
                        <property>
                                  <name>mapreduce.framework.name</name>
                                  <value>yarn</value>
                        </property>
                </configuartion>
                • image.gif
                  • 分发配置文件及软件
                    • 分发环境变量
                    #目前master位于~/目录下
                    scp -r ~/.bash_profiel slave1:$PWD
                    scp -r ~/.bash_profiel slave2:$PWD
                    • image.gif
                      • 别忘了到slave1、slave2上source一把
                        • 分发jdk
                        #当前master位于/usr/local/src/目录下
                        scp -r ./jdk8 slave1:$PWD
                        scp -r ./jdk8 slave2:$PWD
                        • image.gif
                        • 分发hadoop
                        #当前master为于/usr/local/src/目录下
                        scp -r ./hadoop slave1:$PWD
                        scp -r ./hadoop slave2:$PWD
                        • image.gif
                          • 格式化hdfs磁盘
                          #在集群的主节点上进行格式化这里为master,格式化status应该为0,不为0需要根据info进行修改
                          hdfs namenode -format
                          • image.gif
                          • 启动hdfs和yarn
                          #master节点上启动
                          start-dfs.sh
                          #在有resourcemanager所在的机器上使用
                          start-yarn.sh
                          • image.gif
                            • 启动之后可以通过http://master:9000进行网页访问,可以看到集群信息
                              相关实践学习
                              基于MaxCompute的热门话题分析
                              本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
                              SaaS 模式云数据仓库必修课
                              本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
                              相关文章
                              |
                              14天前
                              |
                              数据采集 人工智能 分布式计算
                              MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
                              阿里云推出的MaxFrame是链接大数据与AI的分布式Python计算框架,提供类似Pandas的操作接口和分布式处理能力。本文从部署、功能验证到实际场景全面评测MaxFrame,涵盖分布式Pandas操作、大语言模型数据预处理及企业级应用。结果显示,MaxFrame在处理大规模数据时性能显著提升,代码兼容性强,适合从数据清洗到训练数据生成的全链路场景...
                              44 5
                              MaxFrame:链接大数据与AI的高效分布式计算框架深度评测与实践!
                              |
                              2天前
                              |
                              存储 分布式计算 Hadoop
                              基于Java的Hadoop文件处理系统:高效分布式数据解析与存储
                              本文介绍了如何借鉴Hadoop的设计思想,使用Java实现其核心功能MapReduce,解决海量数据处理问题。通过类比图书馆管理系统,详细解释了Hadoop的两大组件:HDFS(分布式文件系统)和MapReduce(分布式计算模型)。具体实现了单词统计任务,并扩展支持CSV和JSON格式的数据解析。为了提升性能,引入了Combiner减少中间数据传输,以及自定义Partitioner解决数据倾斜问题。最后总结了Hadoop在大数据处理中的重要性,鼓励Java开发者学习Hadoop以拓展技术边界。
                              18 7
                              |
                              2天前
                              |
                              人工智能 分布式计算 大数据
                              MaxFrame 产品评测:大数据与AI融合的Python分布式计算框架
                              MaxFrame是阿里云MaxCompute推出的自研Python分布式计算框架,支持大规模数据处理与AI应用。它提供类似Pandas的API,简化开发流程,并兼容多种机器学习库,加速模型训练前的数据准备。MaxFrame融合大数据和AI,提升效率、促进协作、增强创新能力。尽管初次配置稍显复杂,但其强大的功能集、性能优化及开放性使其成为现代企业与研究机构的理想选择。未来有望进一步简化使用门槛并加强社区建设。
                              31 7
                              |
                              8天前
                              |
                              SQL 分布式计算 DataWorks
                              MaxCompute MaxFrame评测 | 分布式Python计算服务MaxFrame(完整操作版)
                              在当今数字化迅猛发展的时代,数据信息的保存与分析对企业决策至关重要。MaxCompute MaxFrame是阿里云自研的分布式计算框架,支持Python编程接口、兼容Pandas接口并自动进行分布式计算。通过MaxCompute的海量计算资源,企业可以进行大规模数据处理、可视化数据分析及科学计算等任务。本文将详细介绍如何开通MaxCompute和DataWorks服务,并使用MaxFrame进行数据操作。包括创建项目、绑定数据源、编写PyODPS 3节点代码以及执行SQL查询等内容。最后,针对使用过程中遇到的问题提出反馈建议,帮助用户更好地理解和使用MaxFrame。
                              |
                              20天前
                              |
                              机器学习/深度学习 分布式计算 数据挖掘
                              MaxFrame 性能评测:阿里云MaxCompute上的分布式Pandas引擎
                              MaxFrame是一款兼容Pandas API的分布式数据分析工具,基于MaxCompute平台,极大提升了大规模数据处理效率。其核心优势在于结合了Pandas的易用性和MaxCompute的分布式计算能力,无需学习新编程模型即可处理海量数据。性能测试显示,在涉及`groupby`和`merge`等复杂操作时,MaxFrame相比本地Pandas有显著性能提升,最高可达9倍。适用于大规模数据分析、数据清洗、预处理及机器学习特征工程等场景。尽管存在网络延迟和资源消耗等问题,MaxFrame仍是处理TB级甚至PB级数据的理想选择。
                              45 4
                              |
                              28天前
                              |
                              分布式计算 大数据 数据处理
                              技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
                              随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
                              70 2
                              |
                              2月前
                              |
                              SQL 数据采集 分布式计算
                              【赵渝强老师】基于大数据组件的平台架构
                              本文介绍了大数据平台的总体架构及各层的功能。大数据平台架构分为五层:数据源层、数据采集层、大数据平台层、数据仓库层和应用层。其中,大数据平台层为核心,负责数据的存储和计算,支持离线和实时数据处理。数据仓库层则基于大数据平台构建数据模型,应用层则利用这些模型实现具体的应用场景。文中还提供了Lambda和Kappa架构的视频讲解。
                              295 3
                              【赵渝强老师】基于大数据组件的平台架构
                              |
                              2月前
                              |
                              机器学习/深度学习 分布式计算 算法
                              【大数据分析&机器学习】分布式机器学习
                              本文主要介绍分布式机器学习基础知识,并介绍主流的分布式机器学习框架,结合实例介绍一些机器学习算法。
                              315 5
                              |
                              1月前
                              |
                              SQL 分布式计算 算法
                              分布式是大数据处理的万能药?
                              分布式技术在大数据处理中广泛应用,通过将任务拆分至多个节点执行,显著提升性能。然而,它并非万能药,适用于易于拆分的任务,特别是OLTP场景。对于复杂计算如OLAP或批处理任务,分布式可能因数据交换延迟、非线性扩展等问题而表现不佳。因此,应先优化单机性能,必要时再考虑分布式。SPL等工具通过高效算法提升单机性能,减少对分布式依赖。
                              |
                              2月前
                              |
                              SQL 分布式计算 大数据
                              【赵渝强老师】大数据生态圈中的组件
                              本文介绍了大数据体系架构中的主要组件,包括Hadoop、Spark和Flink生态圈中的数据存储、计算和分析组件。数据存储组件包括HDFS、HBase、Hive和Kafka;计算组件包括MapReduce、Spark Core、Flink DataSet、Spark Streaming和Flink DataStream;分析组件包括Hive、Spark SQL和Flink SQL。文中还提供了相关组件的详细介绍和视频讲解。