开发者社区> 问答> 正文

使用LoadIncrementalHFiles加载hfile后,数据查不出来

需求:将一个集群中phoenix表的数据搬到另一个集群中
方法:使用hbase自带的Import和Export命令,先从A集群导出文件,然后将此文件移至B集群hdfs上,在B集群上建表(同样的与预分区),再将此文件转换成hfile,最后使用org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles 加载hfile到目标表
使用到的命令:
A集群导出
$HBASE_HOME/bin/hbase org.apache.hadoop.hbase.mapreduce.Export \
-Dhbase.client.scanner.caching=1000 \
-Dhbase.export.scanner.batch=10
table_name hdfs://host:8020/xxx/TableName_HDFS(导出到HDFS目录)
B集群导入
$HBASE_HOME/bin/hbase org.apache.hadoop.hbase.mapreduce.Import \
-Dimport.bulk.output=/hfile/nbgdata_one table_name /work/nbgdata_one

$HBASE_HOME/bin/hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles /hfile/nbgdata_one table_n
问题:过程中hbase没有报错,但是完成后在表中查不到数据,我在表所在的目录下查看了一下,是有数据的,但是就是查询的时候查不出来,请大神帮忙,不胜感激

展开
收起
hbase小能手 2018-11-06 17:44:07 5640 0
1 条回答
写回答
取消 提交回答
  • 社区管理员

    用命令修复一下迁移后的表,有可能是元数据未指向新的数据地址

    2019-07-17 23:12:32
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载