VM+CentOS+hadoop2.7搭建hadoop完全分布式集群

简介: 写在前边的话:       最近找了一个云计算开发的工作,本以为来了会直接做一些敲代码,处理数据的活,没想到师父给了我一个课题“基于质量数据的大数据分析”,那么问题来了首先要做的就是搭建这样一个平台,毫无疑问,底层采用hadoop集群,在此之上,进行一些其他组件的安装和二次开发hadoop...

写在前边的话:

       最近找了一个云计算开发的工作,本以为来了会直接做一些敲代码,处理数据的活,没想到师父给了我一个课题“基于质量数据的大数据分析”,那么问题来了首先要做的就是搭建这样一个平台,毫无疑问,底层采用hadoop集群,在此之上,进行一些其他组件的安装和二次开发


hadoop伪分布部署参考:点击打开链接

hadoop单机版部署参考:点击打开链接

zookeeper,hive,hbase的分布式部署参考:点击链接

Spark,Sqoop,Mahout的分布式部署参考:点击链接

hadop高可用部署:点击连接

一:安装VM 12.x

     下载地址:链接:http://pan.baidu.com/s/1c2KA3gW密码:3r67

二:安装CentOS6.5

     这里采用3台机器,其对应的IP和主机分别如下(他们的用户名都是master)

主机名 ip 对应的角色
master1 192.168.48.130 NameNode
slave1 192.168.48.131 Datanode1
slave2 192.168.48.132 Datanode2

     这里我们可以采用安装一台虚拟机,然后进行克隆的方法,克隆出五台机器,然后修改对应的ip地址和用户名,VM安装虚拟机有三种网络连接方式,分别是桥接,NAT,仅主机模式,这里采用默认设置,即使用NAT,NAT模式下实用的是Vmnet8

    修改IP地址:

     1:查看本机ip

           我的电脑ip地址为:192.168.69.30

           Vmnet8的ipv4地址为:192.168.48.1

    2:确定虚拟机IP地址范围和网关地址,下图红线标示

          

          

    3:打开虚拟机终端

        输入:sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0

        修改后的信息如下,需要修改的地方有红线标示出来了:

        

        eth0--->eth1

        dhcp--->static

        HWADDR  MAC地址修改为本虚拟机的mac地址,mac地址查看  ip addr,选择eth1那个

        

        之后便可以使用ifconfig查看ip了    

    修改主机名和对应IP:

        1:编辑hosts文件

             sudo vim /etc/hosts

             清空内容,添加   192.168.48.129  master (这里不要清空hosts文件,具体看评论)

        2:便捷network文件

              sudo vim /etc/sysconfig/network

              修改HOSTNAME为master

              重启生效

三:安装hadoop集群

    0:每台机器上关闭防火墙和selinux

         永久关闭防火墙:chkconfig --level 35 iptables off

         永久关闭selinux:

               vim /etc/selinux/config

               找到SELINUX 行修改成为:SELINUX=disabled:

    1:每台机器上安装java环境( jdk-7u51-linux-x64.tar

        解压到指定目录,这里我选择的是/opt

             tar -zxvf jdk-7u51-linux-x64.tar /opt

        修改文件夹名字为java 

             mv /opt/jdk1.7.0_51 /opt/java 

        配置环境变量,打开/etc/profile文件,加入java的路径

             vim /etc/profile (如果没有权限可以前边加入sudo)

        文件前边写上:

             export JAVA_HOME=/opt/java
             export CLASSPATH=.:%JAVA_HOME%/lib/dt.jar:%JAVA_HOME%/lib/tools.jar
             export PATH=$PATH:$JAVA_HOME/bin

    2:配置每台机器的主机名

         清空每台机器上的/etc/hosts文件内容,添加如下:

         192.168.48.130  master1
         192.168.48.131  slave1
         192.168.48.132  slave2

         执行完之后source/etc/hosts

         同时修改每台机器上的/etc/sysconfig/network  中hostname对应的用户名(此步骤一定要注意,否则容易找不到主机名)

    3:给master用户增加sudo权限

               1)切换到root用户,su    输入密码

               2)给sudoers增加写权限:chmod u+w /etc/sudoers

               3)编译sudoers文件:vim /etc/sudoers       
                    在root ALL=(ALL)  ALL下方增加     master ALL=(ALL)NOPASSWD:ALL
              4)去掉sudoers文件的写权限:chmod u-w /etc/sudoers

    4:每台机器都切换到master用户下

         su master

    5:配置SSH免密码登录

         进入~/.ssh目录

         每台机器执行:ssh-keygen -t rsa,一路回车

         生成两个文件,一个私钥,一个公钥,在master1中执行:cp id_rsa.pub authorized_keys

         a:本机无密钥登录

               修改authorized_keys权限:chmod 644 authorized_keys

               此时重启ssh服务:sudo service sshd restart

               ssh master1

               yes!!!

         b:master与其他节点无密钥登录         

           从master中把authorized_keys分发到各个结点上(会提示输入密码,输入thinkgamer即可):

           scp /home/master/.ssh/authorized_keys slave1:/home/master/.ssh

           scp /home/master/.ssh/authorized_keys slave2:/home/master/.ssh 

           然后在各个节点对authorized_keys执行(一定要执行该步,否则会报错):chmod 644 authorized_keys

          测试如下(第一次ssh时会提示输入yes/no,输入yes即可):

           

    6:解压hadoop到指定目录(我这里使用的是/opt/目录)

        tar -zxvf hadoop-2.7.0.tar.gz /opt/hadoop-2.7.0

        重命名文件:mv /opt/hadoop-2.7.0 /opt/hadoop

    7:修改配置文件

          hadoop-env.sh:   

       export JAVA_HOME=/opt/java

          core-site.xml:

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://master1:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/hadoop/tmp</value>
  </property>
</configuration>

            hdfs-site.xml:

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>2</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/opt/hadoop/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/opt/hadoop/dfs/data</value>
  </property>
</configuration>
         mapred-site.xml:

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>Master:10020</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>Master:19888</value>
  </property>
</configuration>
         yarn-site.xml:

<configuration>

<!-- Site specific YARN configuration properties -->
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
    <name>yarn.resourcemanager.address</name>
    <value>master1:8032</value>
  </property>
  <property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>master1:8030</value>
  </property>
  <property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>master1:8031</value>
  </property>
  <property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>master1:8033</value>
  </property>
  <property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master1:8088</value>
  </property>
</configuration>

    8:编辑slaves文件

        清空加入从节点的名字

        slave1

        slave2

    9:将hadoop分发到各个节点(因为权限问题,先将该文件夹分发到各个节点的/home/master目录下,再进入各个节点将文件夹移到/opt下)

         scp -r /opt/hadoop slave1:/home/master/hadoop ,进入该节点执行:sudo mv hadoop /opt/

         scp -r /opt/hadoop slave2:/home/master/hadoop ,进入该节点执行:sudo mv hadoop /opt/

    10:在master节点格式化hdfs

           bin/hdfs namenode -format

           

          看见status 0表示安装成功

四:web页面查看

    1:http://192.168.48.130:8088/

 

    2:http://192.168.48.130:50070/



五:问题记录

    1:linux文件夹权限

         eg:

         

          第一列共有十位
          第一位,d:表示是一个目录,-:表示一个普通的文件
          第2-4位:rwx:分别表示读,写,执行,这里显示为rwx表示文件所有者对该文件拥有读写执行的权利(补充一点,rwx用数字表示为4,2,1)
          第5-7位:r-x:表示与该文件所有者的同组用户拥有该文件的读和执行的权限
          第8-10位:r-x:表示其他组的用户对该文件拥有读和执行的权利

    2:linux基本命令

         查看用户所属用户组   id hostname / groups hostname

         vim命令: 查找:/xxxx

                          清空: gg  dG

    

  参考:   http://www.cnblogs.com/laov/p/3421479.html

                http://www.aboutyun.com/thread-7781-1-1.html

                http://blog.sina.com.cn/s/blog_821d83720102vkx5.html

                http://www.aboutyun.com/thread-10572-1-1.html(HA配置)

相关文章
|
3月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
阿里云PolarDB云原生数据库在TPC-C基准测试中以20.55亿tpmC的成绩刷新世界纪录,展现卓越性能与性价比。其轻量版满足国产化需求,兼具高性能与低成本,适用于多种场景,推动数据库技术革新与发展。
|
1月前
|
分布式计算 Hadoop Java
CentOS中构建高可用Hadoop 3集群
这个过程像是在一个未知的森林中探索。但当你抵达终点,看到那个熟悉的Hadoop管理界面时,所有的艰辛都会化为乌有。仔细观察,尽全力,这就是构建高可用Hadoop 3集群的挑战之旅。
92 21
|
2月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
|
2月前
|
Java Linux
CentOS环境搭建Elasticsearch集群
至此,您已成功在CentOS环境下搭建了Elasticsearch集群。通过以上介绍和步骤,相信您对部署Elasticsearch集群有了充分的了解。最后祝您在使用Elasticsearch集群的过程中顺利开展工作!
141 22
|
3月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
234 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
6月前
|
存储 SpringCloudAlibaba Java
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论。
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
|
7月前
|
存储 分布式计算 负载均衡
分布式计算模型和集群计算模型的区别
【10月更文挑战第18天】分布式计算模型和集群计算模型各有特点和优势,在实际应用中需要根据具体的需求和条件选择合适的计算架构模式,以达到最佳的计算效果和性能。
279 62
|
8月前
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
517 4
|
8月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
166 1
|
7月前
|
存储 监控 大数据
构建高可用性ClickHouse集群:从单节点到分布式
【10月更文挑战第26天】随着业务的不断增长,单一的数据存储解决方案可能无法满足日益增加的数据处理需求。在大数据时代,数据库的性能、可扩展性和稳定性成为企业关注的重点。ClickHouse 是一个用于联机分析处理(OLAP)的列式数据库管理系统(DBMS),以其卓越的查询性能和高吞吐量而闻名。本文将从我的个人角度出发,分享如何将单节点 ClickHouse 扩展为高可用性的分布式集群,以提升系统的稳定性和可靠性。
757 0