E-MapReduce的HBase集群间迁移

简介: E-MapReduce提供HBase服务,本文介绍了几种HBase集群间迁移的方法

HBase集群间数据迁移

0. 前置

HBase集群 HDFS
Cluster-A hdfs:/A
Cluster-B hdfs:/B

Cluster-A集群数据迁移到Cluster-B

1. Export/Import

Cluster-A中HBase表exportCluster-B的HDFS中,然后在Cluster-B中使用import导入HBase

a) Cluster-A和Cluster-B网络通
  • Cluster-B中建好相关迁移的表
hbase(main):001:0>create 'TestTable', 'info'
  • Cluster-A中执行Export命令
sudo su hdfs
hbase org.apache.hadoop.hbase.mapreduce.Driver export TestTable hdfs://B:9000/hbase_tmp
  • Cluster-B中执行Import命令
sudo su hdfs
hbase org.apache.hadoop.hbase.mapreduce.Driver import TestTable hdfs://B:9000/hbase_tmp
  • 清理Cluster-B的HDFS中临时文件夹/hbase_tmp
hadoop fs -rmr /hbase_tmp
b) Cluster-A和Cluster-B网络不通

网络不通的情况下,可以将数据Export到OSS中,然后从OSS中Import

  • Cluster-B中建好相关迁移的表
hbase(main):001:0>create 'TestTable', 'info'
  • Cluster-A中执行Export命令导出到OSS
sudo su hdfs
hbase org.apache.hadoop.hbase.mapreduce.Driver export TestTable oss://$bucket/$path
  • Cluster-B中执行Import命令
sudo su hdfs
hbase org.apache.hadoop.hbase.mapreduce.Driver import TestTable oss://$bucket/$path
  • 清理OSS中临时文件夹

2. distcp

将Cluster-A中HDFS的表文件distcp拷贝到Cluster-B的HBase在HDFS中对应的目录

  • Cluster-A中将HBase的表在HDFS存储文件distcp到Cluster-B的HBase在HDFS中对应的目录(hdfs账户)
sudo su hdfs
hadoop distcp /hbase/data/default/* hdfs://B:9000/hbase/data/default

备注:

/hbase/data/default是E-MapReduce中HBase表在HDFS存储路径,例如表TestTable 的存储路径是/hbase/data/default/TestHbase, 可以只有单个表的路径,也可以是default下面所有表的路径(即*表示)

  • Cluster-B中执行HBase repair修复(hdfs账户)
 sudo su hdfs
 hbase hbck -repair 
 
目录
相关文章
|
分布式计算 资源调度 Hadoop
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
366 3
|
分布式计算 资源调度 数据可视化
Hadoop-06-Hadoop集群 历史服务器配置 超详细 执行任务记录 JobHistoryServer MapReduce执行记录 日志聚合结果可视化查看
Hadoop-06-Hadoop集群 历史服务器配置 超详细 执行任务记录 JobHistoryServer MapReduce执行记录 日志聚合结果可视化查看
359 1
|
分布式计算 资源调度 Hadoop
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
286 1
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
400 0
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
247 0
|
SQL 分布式计算 关系型数据库
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
315 0
|
分布式计算 资源调度 Hadoop
在YARN集群上运行部署MapReduce分布式计算框架
主要介绍了如何在YARN集群上配置和运行MapReduce分布式计算框架,包括准备数据、运行MapReduce任务、查看任务日志,并启动HistoryServer服务以便于日志查看。
313 0
|
11月前
|
分布式计算 Ubuntu Hadoop
Ubuntu22.04下搭建Hadoop3.3.6+Hbase2.5.6+Phoenix5.1.3开发环境的指南
呈上,这些步骤如诗如画,但有效且动人。仿佛一个画家在画布上描绘出一幅完美的画面,这就是你的开发环境。接下来,尽情去创造吧,祝编程愉快!
786 19
|
分布式计算 Java Hadoop
java使用hbase、hadoop报错举例
java使用hbase、hadoop报错举例
396 4
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
376 4