csv导入HBase

本文涉及的产品
EMR Serverless StarRocks,5000CU*H 48000GB*H
EMR Serverless Spark 免费试用,1000 CU*H 有效期3个月
简介: csv文件导入HBase

csv导入HBase

0 前置

example.csv文件

echo '999999941017403,1471848231000,120.6817399807754,27.95172926917687,0,0' >example.csv

问题

    用hadoop jar /opt/apps/hbase-1.1.1/lib/hbase-server-1.1.1.jar importtsv -Dimporttsv.separator=, -Dimporttsv.columns="HBASE_ROW_KEY,cf1:f1,cf1:c2,cf2:c1" test /example.csv 命令从csv文件导数据到HBase中时,会将数字(long/double)当做字符串转化成字节数组存储到HBase,这样导致java程序读long/double会解析异常(Bytes.toDouble(cell.getValue()))。

    尝试了Phoenix,过程中也会出现一些问题,比如phoenix会自动写一个_0的列到HBase中,而且使用hadoop jar /opt/apps/phoenix-4.7.0-HBase-1.1-bin/phoenix-4.7.0-HBase-1.1-client.jar org.apache.phoenix.mapreduce.CsvBulkLoadTool时默认表名都是大写,目前还没找到解决方案

下面使用了Hive来导数据,经过测试是可行的。

1.创建Hive表

 CREATE TABLE example(key bigint, c1 bigint,c2 double,c3 double,c4 bigint,c5 bigint) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key#b,cf1:c1#b,cf1:c2#b,cf1:c3#b,cf1:c4#b,cf1:c5#b")
TBLPROPERTIES ("hbase.table.name" = "example", "hbase.mapred.output.outputtable" = "example");

备注:
hbase.columns.mapping中的#b表示以binary形式写入HBase,对于非string类型的如int/long/double等类型字段需要使用#b

2.创建数据中转的Hive表

由于hive的load data指令不能针对上述创建的HBase映射Hive表(example),所以需要先load进一个临时表,然后从临时表insert进example表。

CREATE TABLE example_shadow(key bigint, c1 bigint,c2 double,c3 double,c4 bigint,c5 bigint) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' STORED as textfile

备注:

a) 字段和example保持一致
b) 分隔符根据csv文件来定

3.load data

    >load data local inpath '/pathtocsv' into table example_shadow;

4. insert to example

    >add jar /opt/apps/phoenix-4.7.0-HBase-1.1-bin/phoenix-4.7.0-HBase-1.1-server.jar;
    >insert overwrite table example select * from example_shadow;

5.验证数据

 >hbase shell
 > scan 'example'
 

_2016_08_27_5_01_16

通过java代码读HBase相关字段的数据,比如double类型的,使用Bytes.toDouble(cell.getValue()),打印看是否正常。

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
4月前
|
Shell 分布式数据库 Hbase
如何使用 HBase Shell 进行数据的批量导入和导出?
如何使用 HBase Shell 进行数据的批量导入和导出?
299 5
|
8月前
|
Shell 分布式数据库 Hbase
使用 HBase Shell 进行数据的批量导入和导出
使用 HBase Shell 进行数据的批量导入和导出
717 6
|
SQL 分布式计算 分布式数据库
大数据Sqoop借助Hive将Mysql数据导入至Hbase
大数据Sqoop借助Hive将Mysql数据导入至Hbase
293 0
|
资源调度 Java Linux
Hbase实践将所有info列簇下的name列导入到另一张表中
Hbase实践将所有info列簇下的name列导入到另一张表中
103 0
|
SQL 消息中间件 Java
ETL数据导入/导出工具 HData(支持JDBC、Hive、HDFS、HBase、Kafka等)
HData是一个异构的ETL数据导入/导出工具,致力于使用一个工具解决不同数据源(JDBC、Hive、HDFS、HBase、MongoDB、FTP、Http、CSV、Excel、Kafka等)之间数据交换的问题。
2225 0
|
分布式计算 Hadoop 分布式数据库
通过Datax将CSV文件导入Hbase,导入之前的CSV文件大小和导入之后的Hadoop分布式文件大小对比引入的思考
由于项目需要做系统之间的离线数据同步,因为实时性要求不高,因此考虑采用了阿里的datax来进行同步。在同步之前,将数据导出未csv文件,因为需要估算将来的hbase运行的hadoop的分布式文件系统需要占用多少磁盘空间,因此想到了需要做几组测试。
2310 0
|
SQL MySQL 关系型数据库
sqoop将mysql数据导入hbase、hive的常见异常处理
sqoop将mysql数据导入hbase、hive的常见异常处理一、需求:1、将以下这张表(test_goods[id,goods_name,goods_price])数据导入Hbase 由此,编写如下sqoop导入命令 sqoop import -D sqoop.
3014 0
|
分布式计算 大数据 分布式数据库
|
分布式计算 分布式数据库 Apache
|
分布式计算 Java Hadoop
【原创】浅谈hbase表中数据导出导入(也就是备份)
最近因为生产环境hbase中某张表的数据要导出到测试环境(数据不多,大概200W条左右),如果用程序掉接口导入的话太慢,所以考虑直接用hbase的功能来导入导出。因为此次是实验,所以我在正式环境建了一张小表,只有两条数据,目的是将它导入到一张新表中(空表,但是表结构一样) hbas...
1456 0