Hadoop-Hbase集群搭建

简介: Hadoop-Hbase集群搭建
1. 下载


http://archive.cloudera.com/cdh5/cdh/5/hbase-1.2.0-cdh5.7.0.tar.gz


2. 解压

#解压到指定的文件夹
tar xzvf hbase-1.2.0-cdh5.7.0.tar.gz -C /usr/loca/hadoop/app


3. 配置文件修改


进入目录: /usr/local/hadoop/app/hbase-1.2.0-cdh5.7.0/conf


(1)修改hbase-env.sh

#指定JAVA_HOME地址
export JAVA_HOME=/usr/local/hadoop/app/jdk1.8.0_171
#不使用hbase自带的zk
export HBASE_MANAGES_ZK=false


(2)修改regionservers


添加如下内容:(我的是两个从节点)

slave1
slave2


(3)修改hbase-site.xml


配置如下内容:

<property>
         <name>hbase.rootdir</name>
         <value>hdfs://master:9000/hbase</value>
    </property>
    <property>
            <name>hbase.cluster.distributed</name>
            <value>true</value>
    </property>
    <property>
            <name>hbase.zookeeper.quorum</name>
            <value>master,slave1,slave2</value>
    </property>


(4) 远程复制到其他两个节点上

scp -rp /usr/local/hadoop/app/hbase-1.2.0-cdh5.7.0 slave1:/usr/local/hadoop/app
scp -rp /usr/local/hadoop/app/hbase-1.2.0-cdh5.7.0 slave1:/usr/local/hadoop/app


并在slave1,slave2节点上分别配置环境变量


(5)配置系统环境变量

vi ~/.bashrc

export HBASE_HOME=/usr/local/hadoop/app/hbase-1.2.0-cdh5.7.0
export PATH=$HBASE_HOME/bin:$PATH


bash一下,刷新配置,使配置生效


echo查看配置是否生效

echo $HBASE_HOME


4. 检查是否安装成功


4.1 启动或停止


启动hbase之前,**要首先启动hadoopzookeeper:


(1) 启动hadoop:

#格式化
hadoop namenode -format
#启动hdfs
./sbin/start-dfs.sh
#启动yarn
./sbin/start-yarn.sh


jps一下,确认启动状态


(2) 启动zookeeper

#启动
zkServer.sh start
#查看启动状态
zkServer.sh status


(3) 启动hbase

start-hbase.sh
stop-hbase.sh


4.2 验证hbase是否启动成功:


(1) jps验证 是否有对应进程:

[root@master conf]# jps
3936 ResourceManager
7601 Jps
3298 NameNode
7491 Main
3449 SecondaryNameNode
4765 QuorumPeerMain
7229 HMaster
[root@slave2 conf]# jps
2210 NodeManager
4082 HRegionServer
2085 DataNode
2871 QuorumPeerMain
4297 Jps


(2) 执行hbase shell命令进入shell终端:执行status命令,查看集群状态

hbase(main):001:0> status
1 active master, 0 backup masters, 2 servers, 0 dead, 1.0000 average load


(3) 执行version命令查看一下版本;


(4) 创建一个表:

create 'member','info','address'


(5) 查看一下表的描述:

desc 'member'


(6) 查看hbase前端页面

http://192.168.175.20:60010


查看新建的表,及其他信息,观察是否正常.


当无法访问时,可尝试在虚拟机内部访问,或执行curl master:60010

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
&nbsp; 相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情:&nbsp;https://cn.aliyun.com/product/hbase &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
26天前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
114 6
|
27天前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
58 4
|
27天前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
30 3
|
27天前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
54 3
|
27天前
|
SQL 存储 分布式计算
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
38 3
|
27天前
|
SQL 分布式计算 Hadoop
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
50 3
|
27天前
|
分布式计算 资源调度 Hadoop
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
78 3
|
27天前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
39 2
|
27天前
|
SQL 存储 数据管理
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
51 2
|
27天前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
58 1

相关实验场景

更多