hadoop+hbase+zookeeper安装指南

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
云原生网关 MSE Higress,422元/月
简介: hadoop+hbase+zookeeper安装指南

hadoop、hbase、zookeeper是大数据里面三个重要的产品,关于这三个产品的介绍,各种书籍和网站介绍得很多,在这里不再赘述,仅介绍在ubunt下如何安装和配置这三种产品。


第一步:配置虚拟机为桥接模式


第二步:安装openssh-server,并且登录不需要

/home/jerry/>apt-get install openssh-server #安装openssh-server
/home/jerry/>ssh  localhost #登录本机,需要密码
/home/jerry/>exit#  退出刚才的 ssh localhost
/home/jerry/>cd  ~/.ssh/# 若没有该目录,请先执行一次ssh localhost
/home/jerry/>ssh-keygen  -t rsa# 会有提示,都按回车就可以
/home/jerry/>cat  ./id_rsa.pub >> ./authorized_keys # 加入授权
/home/jerry/>ssh  localhost#不需要密码


第三步:安装JDK 1.7以上


/home/jerry/>tar -xzf jdk-8u161-linux-x64.tar.gz -C /usr/local
/home/jerry/>cd  /usr/local
/usr/local/>mv  jdk1.8.0_161/ java
/usr/local/>gedit  ~/.bashrc


export JAVA_HOME=/usr/local/java
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin


/usr/local/>source ~/.bashrc
/usr/local/>java -version


出现版本信息,说明配置正确。


第四步:安装hadoop

/home/jerry/>tar -xzf  hadoop-2.6.4.tar.gz -C /usr/local
/home/jerry/>cd  /usr/local
/usr/local/>mv  hadoop-2.6.4/ hadoop
/usr/local/>chown -R  root ./hadoop
/usr/local/>gedit  ~/.bashrc

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export JAVA_LIBRAY_PATH=$HADOOP_HOME/lib/native
export LD_LIBRARY_PATH=$JAVA_LIBRARY_PATH


/usr/local/>source  ~/.bashrc
/usr/local/>hadoop  version


#查看hsddop版本有内容,说明配置正确


/usr/local/>gedit  /usr/local/hadoop/etc/hadoop/core-site.xml 


<configuration>
  <property>
    <name>fs.defualtFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
  <configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
</configuration>


/usr/local/>gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml


<configuration>
      <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
  <property>
    <name>dfs.namenode.http-address</name>
    <value>0.0.0.0:50070</value>
  </property>
</configuration>

  • dfs.namenode.name.dir:namenode位置
  • dfs.namenode.data.dir:datanode位置
  • dfs.namenode.http-address:hadoop WEB端口
gedit /usr/local/hadoop/etc/hadoop/hdoop-env.sh


语句

export JAVA_HOME=$JAVA_HOME

 修改为

export JAVA_HOME=/usr/java/jdk1.8.0_101

hadoop WEB 页面:http://localhost:50070


image.png

/usr/local/>cd hadoop
/usr/local/hadoop/>hdfs  namenode -format
/usr/local/hadoop/>sbin/start-dfs.sh
/usr/local/hadoop/>cp  etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
/usr/local/hadoop/>gedit  /usr/local/hadoop/etc/hadoop/yarn-site.xml


<configuration>
  <property>
    <name>yarn.nodemanager.aux-server</name>
    <value>mapreduce_shuffle</value>
  </property>
</configuration>


/usr/local/hadoop/>sbin/start-dfs.sh(./sbin/stop-dfs.sh)
/usr/local/hadoop/>sbin/start-yarn.sh(./sbin/stop-yarn.sh)
/usr/local/hadoop/>sbin/mr-jobhistory-daemon.sh  start historyserver #查看历史任务( ./sbin/mr-jobhistory-daemon.sh stop historyserver)


hadoop安全模式,比如hadoop非正常退出,会进入安全模式

$hdfs dfsadmin -safemode get|wait|entry|leave|wait

  • get:获得当前是否进入安全模式
  • wait:等待进入安全模式
  • entry:强制进入安全模式
  • leave:强制离开安全模式

第五步:安装HBase

/home/jerry/>tar -xzf  hbase-2.2.4-bin.tar.gz -C /usr/local
/home/jerry/>cd  /usr/local
/usr/local/>mv  hbase-2.2.4/ hbase
/usr/local/>gedit  ~/.bashrc


export HBASE_HOME=/usr/local/hbase
export PATH=$PATH:$HBASE_HOME/bin


/usr/local/>source  ~/.bashrc
/usr/local/>chown -R  root ./habase
/usr/local/>gedit hbase/conf/hbase-site.xml


<configuration>
    <property>
    <name>hbase.rootdir</name>
    <value>hdfs://localhost:9000/hbase</value>
  </property>
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
   <property> 
      <name>hbase.unsafe.stream.capability.enforce</name> 
      <value>false</value> 
   </property>
  <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/usr/local/zookeeper</value>
    </property>
</configuration>


hbase.rootdir:
hbase在HDFS的位置,端口号一定要与/usr/local/hadoop/etc/hadoop/core-site.xml保持一致。

  • hbase.cluster.distributed:
    是否为分布式,在这里为伪分布式
  • hbase.unsafe.stream.capability.enforce:
    在分布式情况下, 一定设置为false(hbase的一个bug)
  • hbase.zookeeper.property.dataDir:
    zookeeper的位置。


/usr/local/>hbase  version #有结果说明配置正确
/usr/local/>hbase-daemon.sh   start master
/usr/local/>start-hbase.sh #用于启动HBase,关闭HBase用stop-hbase.sh   速度相当慢,./bin/hdfs namenode -format,但是数据全部丢失
/usr/local/>hbase  shell#用于打开shell命令行模式


HBase WEB 页面http://localhost:16010

image.png


第六步:安装zookeeperz文件


/home/jerry/>tar -zxvf  zookeeper-3.4.11.tar.gz
/home/jerry/>mv  zookeeper-3.4.11 /usr/local/zookeeper
/home/jerry/>cd  /usr/local/zookeeper/conf  //切换到该目录
/usr/local/zookeeper/conf  >cp zoo_sample.cfg zoo.cfg//复制一份取名为zoo.cfg
/usr/local/zookeeper/conf  >gedit zoo.cfg


...
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.
dataDir=/tmp/zookeeper
dataLogDir=/tmp/zookeeper/logs
# the port at which the clients will connect
clientPort=2181
...


确保/tmp/zookeeper,/tmp/zookeeper/logs存在

/usr/local/>source  ~/.bashrc
/usr/local/>chown -R  root ./habase
/usr/local/>hbase  version
/usr/local/zookeeper/conf >gedit ~/.bashrc


export ZOOKEEPER_HOME=/usr/local/zookeeper
export PATH=$PATH:$ ZOOKEEPER_HOME/bin


/usr/local/zookeeper/conf  >source ~/.bashrc
cd ../bin/
/usr/local/zookeeper/bin>zkServer.sh  start


在实际工作中,建议启动服务以后确定启动没有问题再关闭,最后统一启动,启动顺序为:

  • haddoop
  • hbase
  • zookeep


启动完毕

jps
114865 NameNode
112467 JobHistoryServer
116114 HRegionServer
111637 ResourceManager
115271 SecondaryNameNode
43386 Jps
115994 HMaster
115932 HQuorumPeer
115023 DataNode
111774 NodeManager


几种错误现象。


1,NoNode for /hbase/master

hbase(main):005:0> status

ERROR: KeeperErrorCode = NoNode for /hbase/master

For usage try 'help "status"'

Took 8.1764 seconds

原因

HMaster进程没有打开


2,启动hadoopmei没有datanode

cat /usr/local/hadoop/tmp/dfs/name/current/VERSION

记住clusterID

edit /usr/local/hadoop/tmp/dfs/data/current/VERSION

修改clusterID为刚才记录的name里面的clusterID

重新启动hadoop


3,启动hbase后不久HMaster就关闭

如果使用后hbase自带的zookeeper,建议单独安装zookeeper,否则到zookeeper主目录下删除hbase下所有内容

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
&nbsp; 相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情:&nbsp;https://cn.aliyun.com/product/hbase &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
1月前
|
存储 负载均衡 监控
dubbo学习一:zookeeper与dubbo的关系,下载安装启动zookeeper(解决启动中报错)
这篇文章是关于Apache Dubbo框架与Zookeeper的关系,以及如何下载、安装和启动Zookeeper的教程,包括解决启动过程中可能遇到的报错问题。
53 3
dubbo学习一:zookeeper与dubbo的关系,下载安装启动zookeeper(解决启动中报错)
|
1月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
71 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
33 3
|
1月前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
58 3
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-34 HBase 安装部署 单节点配置 hbase-env hbase-site 超详细图文 附带配置文件
Hadoop-34 HBase 安装部署 单节点配置 hbase-env hbase-site 超详细图文 附带配置文件
78 2
|
1月前
|
存储 分布式计算 Hadoop
Hadoop-33 HBase 初识简介 项目简介 整体架构 HMaster HRegionServer Region
Hadoop-33 HBase 初识简介 项目简介 整体架构 HMaster HRegionServer Region
53 2
|
分布式计算 Ubuntu Hadoop
Hadoop 的安装和使用(基于Linux~Ubuntu的虚拟机)
Hadoop 的安装和使用(基于Linux~Ubuntu的虚拟机)
1027 0
Hadoop 的安装和使用(基于Linux~Ubuntu的虚拟机)
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
161 6
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
66 2
|
23天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
79 2
下一篇
无影云桌面