本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。https://developer.aliyun.com/article/706511 点击链接欢迎加入感兴趣的技术领域群。
1 HBase本身提供的接口 其调用形式为: 1)导入 ./hbase org.apache.hadoop.hbase.mapreduce.Driver import 表名 数据文件位置 其中数据文件位置可为本地文件目录,也可以分布式文件系统hdfs的路径。 当其为前者时,直接指定即可,也可以加前缀file:/// 而当其伟后者时,必须明确指明hdfs的路径,例如hdfs://mymaster:9000/path 2)导出 ./hbase org.apache.hadoop.hbase.mapreduce.Driver export 表名 数据文件位置 同上,其中数据文件位置可为本地文件目录,也可以分布式文件系统hdfs的路径。 另外,该接口类还提供了一些其它的方法,例如表与表之间的数据拷贝,导入tsv文件等,可回车键查看 2 hadoop提供的工具(hadoop tool interface) 使用该工具的话,需要首先配置hadoop-env.sh,否则在执行时会提示缺少jar包或者class文件。 1)配置 切换到hadoop安装目录下, vim hadoop-env.sh,加以下语句 export HADOOP_CLASSPATH="hbasejar包路径:zookeeper的jar包路径:hbase的config目录" 2)使用 导入: hadoop jar /../hbase/hbase-*.jar import mytest /export/mybakup 导出: hadoop jar /../hbase/hbase-*.jar import mytest /import/mybackup 直接将数据导出到hdfs目录中,当不指定file前缀时。 另外: export,fs的参数为hdfs上的路径时,该路径必须不能已经存在,否则会报错。 import的表必须是hbase中已经创建好的,否则会报错。
答案来源网络,供参考,希望对您有帮助
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。