D005 复制粘贴玩大数据之安装与配置HBase集群

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: HBase的获取; 上传安装包到集群; 安装HBase集群; HBase集群校验

0x01 HBase的获取

1. 官网下载

a. 为了统一,此处下载HBase1.2.6版本 :

http://archive.apache.org/dist/hbase

选择1.2.6/hbase-1.2.6-bin.tar.gz进行下载


0x02 上传安装包到集群

1. 上传安装包到虚拟机

image.png


PS:如果不是docker部署的集群,则直接上传到虚拟机即可,因为,每台虚拟机就是一个节点。

2. 复制安装包到master节点

docker cp hbase-1.2.6-bin.tar.gz hadoop-master:/root

sh master.sh

ll

20190130091842724.png


0x03 安装HBase集群

1. 解压HBase

a. 解压安装包(-C为指定解压到/usr/local路径)

tar -zxvf hbase-1.2.6-bin.tar.gz -C /usr/local


2. 配置HBase

a. 修改配置文件hbase-env.sh($HBASE_HOME/conf):

cd /usr/local/hbase-1.2.6/conf

vi hbase-env.sh


20190130093025428.png


  • 添加JAVA_HOME、HBASE_CLASSPATH、HBASE_MANAGES_ZK


20190213111515738.png


ps:原本也有JAVA_HOME、HBASE_CLASSPATH、HBASE_MANAGES_ZK这三个选项,只是被注释掉了,在非编辑模式下可以按/,再加上搜索的文字,按回车即可搜索如:


20190130093824729.png


b. 修改配置文件regionservers($HBASE_HOME/conf):

vi regionservers

删除原本的localhost,添加:

hadoop-slave1
hadoop-slave2


2019013011083284.png


c. 修改配置文件hbase-site.xml($HBASE_HOME/conf):

vi hbase-site.xml

<property>
  <name>hbase.rootdir</name>
  <value>hdfs://hadoop-master:9000/hbase</value>
</property>
<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>
<property>
  <name>hbase.zookeeper.quorum</name>
  <value>hadoop-master,hadoop-slave1,hadoop-slave2</value>
</property>

20190130110706149.png

  • 特别注意:hdfs://hadoop-master:9000/hbase的端口9000需要与hadoop里面的core-site.xml文件配置的一致。


d. 配置环境变量(可看到docker生成节点时默认配好的其他环境变量)

vi /etc/profile

export HBASE_HOME=/usr/local/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin

20190130094449503.png


  • 使配置生效(echo一下有内容输入,说明已经配好)

source /etc/profile


3. 在同步HBase到slave1、slave2


a. 将hbase-1.2.6拷贝到slave1和slave2上

scp -r /usr/local/hbase-1.2.6 root@hadoop-slave1:/usr/local/

scp -r /usr/local/hbase-1.2.6 root@hadoop-slave2:/usr/local/

复制成功截图:


20190130103523178.png


ps:此处不用配置slave1、slave2的环境变量是因为启动的时候只需要在master上启动,与zk不同。

0x04 HBase集群校验

1. 启动Hadoop与ZK集群

a. 查看进程(如有hadoop与zk进程,则不需执行b.c.步):~/jps_all.sh


20190130105226720.png


b. 在master上执行:

$HADOOP_HOME/sbin/start-dfs.sh

$HADOOP_HOME/sbin/start-yarn.sh

c. 三个节点上启动zk:

source /etc/profile

zkServer.sh start

ps:执行完b.c.步后再查看进程,发现a.的进程都有了


2. 启动HBase集群


a. 在master上执行:

start-hbase.sh


20190130105503104.png


遇到此问题:

解决:

将三个节点上HBase的配置文件conf/hbase-env.sh此两行注释掉即可:

vi /usr/local/hbase-1.2.6/conf/hbase-env.sh


export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"

20190130110103267.png


重新启动!


3. 查看进程

a. 表示安装成功:

~/jps_all.sh


2019013011102745.png


  • 思考题:目前只是查看到进程,而了解过HBase的小伙伴知道我们可以通过16010端口查看HBase的Web UI界面,然而我们在生成容器的时候并没有暴露16010端口出去,应该怎么做呢?!


0xFF 总结


  1. 出现的问题还是有点多,同志们遇到什么问题请评论,还有自己多谷歌把问题解决。
  2. 操作过程中有时候还会出现两个问题:


问题一:显示没有权限,保存不了编辑文件,退出重新连接就可以了。

解决方法一:

保存不了编辑文件,退出重新连接就可以了。

解决方法二:

断开前面XFtp软件的连接,重新执行。

问题二:复制文件到从节点的时候,出现22端口无法连接,显示没有权限。


2019013010150356.png


解决:

查看ssh服务状态(查看了slave2的):

/etc/init.d/ssh status

启动ssh服务:

/etc/init.d/ssh start


2019013010300140.png


ps:hadoop-master、hadoop-slave1、hadoop-slave2三台机器都要开启!

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
&nbsp; 相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情:&nbsp;https://cn.aliyun.com/product/hbase &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
13天前
|
Prometheus 监控 Cloud Native
在 HBase 集群中,Prometheus 通常监控哪些类型的性能指标?
在 HBase 集群中,Prometheus 监控关注的核心指标包括 Master 和 RegionServer 的进程存在性、RPC 请求数、JVM 内存使用率、磁盘和网络错误、延迟和吞吐量、资源利用率及 JVM 使用信息。通过 Grafana 可视化和告警规则,帮助管理员实时监控集群性能和健康状况。
|
1月前
|
存储 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
40 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
zdl
|
10天前
|
消息中间件 运维 大数据
大数据实时计算产品的对比测评:实时计算Flink版 VS 自建Flink集群
本文介绍了实时计算Flink版与自建Flink集群的对比,涵盖部署成本、性能表现、易用性和企业级能力等方面。实时计算Flink版作为全托管服务,显著降低了运维成本,提供了强大的集成能力和弹性扩展,特别适合中小型团队和业务波动大的场景。文中还提出了改进建议,并探讨了与其他产品的联动可能性。总结指出,实时计算Flink版在简化运维、降低成本和提升易用性方面表现出色,是大数据实时计算的优选方案。
zdl
40 0
|
1月前
|
分布式计算 大数据 分布式数据库
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
43 5
|
1月前
|
SQL 分布式计算 NoSQL
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
41 4
|
1月前
|
资源调度 大数据 分布式数据库
大数据-158 Apache Kylin 安装配置详解 集群模式启动(二)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(二)
43 2
|
1月前
|
消息中间件 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
41 2
|
1月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
10天前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
88 7
|
10天前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
25 2
下一篇
无影云桌面