【HBase】(七)Hbase 常用API(增删改查)

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
云原生网关 MSE Higress,422元/月
简介: 【HBase】(七)Hbase 常用API(增删改查)

文章目录


一、环境准备

二、HBaseAPI

三、代码实现


一、环境准备


新建项目后在pom.xml 中添加依赖:

<!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-client -->
    <dependency>
      <groupId>org.apache.hbase</groupId>
      <artifactId>hbase-client</artifactId>
      <version>1.2.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-common -->
    <dependency>
      <groupId>org.apache.hbase</groupId>
      <artifactId>hbase-common</artifactId>
      <version>1.2.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-server -->
    <dependency>
      <groupId>org.apache.hbase</groupId>
      <artifactId>hbase-server</artifactId>
      <version>1.2.0</version>
    </dependency>

 

二、HBaseAPI


以下是几个主要 Hbase API 类和数据模型之间的对应关系:


1、 HBaseAdmin

关系: org.apache.hadoop.hbase.client.HBaseAdmin

作用:提供了一个接口来管理 HBase 数据库的表信息。它提供的方法包括:创建表,删 除表,列出表项,使表有效或无效,以及添加或删除表列族成员等。


2、 HBaseConfiguration

关系: org.apache.hadoop.hbase.HBaseConfiguration

作用:对 HBase 进行配置


3、 HTableDescriptor

关系: org.apache.hadoop.hbase.HTableDescriptor

作用:包含了表的名字极其对应表的列族


4、 HColumnDescriptor

关系: org.apache.hadoop.hbase.HColumnDescriptor

作用:维护着关于列族的信息,例如版本号,压缩设置等。它通常在创建表或者为表添 加列族的时候使用。列族被创建后不能直接修改,只能通过删除然后重新创建的方式。

列族被删除的时候,列族里面的数据也会同时被删除。


5、 HTable

关系: org.apache.hadoop.hbase.client.HTable

作用:可以用来和 HBase 表直接通信。此方法对于更新操作来说是非线程安全的。


6、 Put

关系: org.apache.hadoop.hbase.client.Put

作用:用来对单个行执行添加操作


7、 Get

关系: org.apache.hadoop.hbase.client.Get

作用:用来获取单个行的相关信息


8、 Result

关系: org.apache.hadoop.hbase.client.Result

作用:存储 Get 或者 Scan 操作后获取表的单行值。使用此类提供的方法可以直接获取值 或者各种 Map 结构( key-value 对)


三、代码实现

package com.hbase.util;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.NamespaceDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Delete;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.filter.CompareFilter.CompareOp;
import org.apache.hadoop.hbase.filter.FilterList;
import org.apache.hadoop.hbase.filter.SingleColumnValueFilter;
import org.apache.hadoop.hbase.util.Bytes;
public class HbaseUtility {
  public static Configuration conf;
  public static Connection conn;
  /**
  * 类级别的初始化,只是在类加载的时候做一次 配置zookeeper的端口2181
  * 配置zookeeper的仲裁主机名centos,如果有多个机器,主机名间用冒号隔开 配置hbase master
  * 还有一种方式是new一个configuration对象,然后用addresource方法去添加xml配置文件 但是像这样显式的配置是会覆盖xml里的配置的
  */
  static {
  conf = HBaseConfiguration.create();
  conf.set("hbase.zookeeper.property.clientPort", "2181");
  conf.set("hbase.zookeeper.quorum", "centos");
  conf.set("hbase.master", "centos:60000");
  try {
    conn = ConnectionFactory.createConnection(conf);
  } catch (IOException e) {
    e.printStackTrace();
  }
  }
  /**
  * 建表,建列族
  * 
  * @param tablename,
  * @param ColumnFamilys
  *            NamespaceDescriptor:维护命名空间的信息,但是namespace,一般用shell来建立
  *            Admin:提供了一个接口来管理 HBase 数据库的表信息
  *            HTableDescriptor:维护了表的名字及其对应表的列族,通过HTableDescriptor对象设置表的特性
  *            HColumnDescriptor:维护着关于列族的信息,可以通过HColumnDescriptor对象设置列族的特性
  */
  public static void createtable(String tablename, String... ColumnFamilys) throws IOException {
  Admin admin = conn.getAdmin();
  // admin.createNamespace(NamespaceDescriptor.create("my_ns").build());
  // HTableDescriptor table=new
  // HTableDescriptor(TableName.valueOf("my_ns"+tablename));
  HTableDescriptor table = new HTableDescriptor(TableName.valueOf(tablename));
  for (String family : ColumnFamilys) {
    HColumnDescriptor columnfamily = new HColumnDescriptor(family);
    table.addFamily(columnfamily);
  }
  if (admin.tableExists(TableName.valueOf(tablename))) {
    System.out.println("Table Exists");
  } else {
    admin.createTable(table);
    System.out.println("Table Created");
    admin.close();
  }
  }
  /**
  * 插入数据,当指定rowkey已经存在,则会覆盖掉之前的旧数据
  * 
  * @param tablename,
  * @param rowkey,
  * @param ColumnFamilys,
  * @param columns,@values
  *            Table:用于与单个HBase表通信 Put:用来对单个行执行添加操作
  */
  public static void insertdata(String tablename, String rowkey, String ColumnFamilys, String[] columns,
    String[] values) throws IOException {
  Table table = conn.getTable(TableName.valueOf(tablename));
  Put put = new Put(Bytes.toBytes(rowkey));
  for (int i = 0; i < columns.length; i++) {
    put.addColumn(Bytes.toBytes(ColumnFamilys), Bytes.toBytes(columns[i]), Bytes.toBytes(values[i]));
  }
  table.put(put);
  System.out.println("data inserted");
  table.close();
  }
  /**
  * 根据rowkey删除整行的所有列族、所有行、所有版本
  * 
  * @param tablename
  * @param rowkey
  */
  public static void deleterow(String tablename, String rowkey) throws IOException {
  Table table = conn.getTable(TableName.valueOf(tablename));
  Delete delete = new Delete(Bytes.toBytes(rowkey));
  table.delete(delete);
  table.close();
  System.out.println("row" + rowkey + " is deleted");
  }
  /**
  * 删除某个row的指定列
  * 
  * @param tablename
  * @param rowkey
  * @param columnfamily
  * @param column
  */
  public static void deletecol(String tablename, String rowkey, String columnfamily, String column)
    throws IOException {
  Table table = conn.getTable(TableName.valueOf(tablename));
  Delete delete = new Delete(Bytes.toBytes(rowkey));
  delete.deleteColumn(Bytes.toBytes(columnfamily), Bytes.toBytes(column));
  table.delete(delete);
  table.close();
  System.out.println("row" + rowkey + " is deleted");
  }
  /**
  * 删除指定列族中所有列的时间戳等于指定时间戳的版本数据
  * 
  * @param tablename
  * @param rowkey
  * @param columnfamily
  * @param timestamp
  */
  public static void deleteversion(String tablename, String rowkey, String columnfamily, Long timestamp)
    throws IOException {
  Table table = conn.getTable(TableName.valueOf(tablename));
  Delete delete = new Delete(Bytes.toBytes(rowkey));
  delete.deleteFamilyVersion(Bytes.toBytes(columnfamily), timestamp);
  table.delete(delete);
  table.close();
  System.out.println("row" + rowkey + " is deleted");
  }
  /**
  * 删除指定列族,注意要先disable,修改完再enable表
  * 
  * @param tablename,
  * @param columnfamily
  * 
  */
  public static void deletefamily(String tablename, String columnfamily) throws IOException {
  Admin admin = conn.getAdmin();
  admin.disableTable(TableName.valueOf(tablename));
  HTableDescriptor table = admin.getTableDescriptor(TableName.valueOf(tablename));
  table.removeFamily(Bytes.toBytes(columnfamily));
  admin.modifyTable(TableName.valueOf(tablename), table);
  admin.enableTable(TableName.valueOf(tablename));
  System.out.println("columnfamily " + columnfamily + " is deleted");
  admin.close();
  }
  /**
  * drop表,注意要先disable表,否则会报错
  * 
  * @param tablename
  */
  public static void droptable(String tablename) throws IOException {
  Admin admin = conn.getAdmin();
  admin.disableTable(TableName.valueOf(tablename));
  admin.deleteTable(TableName.valueOf(tablename));
  System.out.println("Table " + tablename + " is droped");
  }
  /**
  * 扫描全表
  * 
  * @param tablename
  */
  public static void scantable(String tablename) throws IOException {
  Scan scan = new Scan();
  Table table = conn.getTable(TableName.valueOf(tablename));
  ResultScanner rs = table.getScanner(scan);
  for (Result result : rs) {
    for (Cell cell : result.listCells()) {
    System.out.println(Bytes.toString(cell.getRow()) + "    " + "column=" + Bytes.toString(cell.getFamily())
      + ":" + Bytes.toString(cell.getQualifier()) + ",timestamp=" + cell.getTimestamp() + ",value="
      + Bytes.toString(cell.getValue()));
    }
  }
  rs.close();
  }
  /**
  * 根据rowkey对表进行scan
  * 
  * @param tablename
  * @param rowkey
  *            scan 'student',{ROWPREFIXFILTER => '1'}
  */
  public static void scanrow(String tablename, String rowkey) throws IOException {
  Get get = new Get(Bytes.toBytes(rowkey));
  Table table = conn.getTable(TableName.valueOf(tablename));
  Result result = table.get(get);
  for (KeyValue kv : result.list()) {
    System.out.println(
      rowkey + "    column=" + Bytes.toString(kv.getFamily()) + ":" + Bytes.toString(kv.getQualifier())
        + "," + "timestamp=" + kv.getTimestamp() + ",value=" + Bytes.toString(kv.getValue()));
  }
  }
  /**
  * 获取指定rowkey中,指定列的最新版本数据
  * 
  * @param tablename
  * @param rowkey
  * @param columnfamily
  * @param column
  */
  public static void scanspecifycolumn(String tablename, String rowkey, String columnfamily, String column)
    throws IOException {
  Table table = conn.getTable(TableName.valueOf(tablename));
  Get get = new Get(Bytes.toBytes(rowkey));
  get.addColumn(Bytes.toBytes(columnfamily), Bytes.toBytes(column));
  Result result = table.get(get);
  for (KeyValue kv : result.list()) {
    System.out.println(
      rowkey + "    column=" + Bytes.toString(kv.getFamily()) + ":" + Bytes.toString(kv.getQualifier())
        + "," + "timestamp=" + kv.getTimestamp() + ",value=" + Bytes.toString(kv.getValue()));
  }
  }
  /**
  * 获取行键指定的行中,指定时间戳的数据,
  * 
  * @param tablename
  * @param rowkey
  * @param timestamp
  *            如果要获取指定时间戳范围的数据,可以使用get.setTimeRange方法
  */
  public static void scanspecifytimestamp(String tablename, String rowkey, Long timestamp) throws IOException {
  Get get = new Get(Bytes.toBytes(rowkey));
  get.setTimeStamp(timestamp);
  Table table = conn.getTable(TableName.valueOf(tablename));
  Result result = table.get(get);
  for (KeyValue kv : result.list()) {
    System.out.println(
      rowkey + "    column=" + Bytes.toString(kv.getFamily()) + ":" + Bytes.toString(kv.getQualifier())
        + "," + "timestamp=" + kv.getTimestamp() + ",value=" + Bytes.toString(kv.getValue()));
  }
  }
  /**
  * 获取行键指定的行中,所有版本的数据
  * 能输出多版本数据的前提是当前列族能保存多版本数据,列族可以保存的数据版本数通过HColumnDescriptor的setMaxVersions(Int)方法设置。
  * 
  * @param tablename
  * @param rowkey
  * @param timestamp
  */
  public static void scanallversion(String tablename, String rowkey) throws IOException {
  Get get = new Get(Bytes.toBytes(rowkey));
  get.setMaxVersions();
  Table table = conn.getTable(TableName.valueOf(tablename));
  Result result = table.get(get);
  for (KeyValue kv : result.list()) {
    System.out.println(
      rowkey + "    column=" + Bytes.toString(kv.getFamily()) + ":" + Bytes.toString(kv.getQualifier())
        + "," + "timestamp=" + kv.getTimestamp() + ",value=" + Bytes.toString(kv.getValue()));
  }
  }
  /**
  * 使用过滤器,获取18-20岁之间的学生信息
  * 
  * @param tablename
  * @param age
  * @throws IOException
  */
  public static void scanfilterage(String tablename, int startage, int endage) throws IOException {
  Table table = conn.getTable(TableName.valueOf(tablename));
  FilterList filterList = new FilterList(FilterList.Operator.MUST_PASS_ALL);
  SingleColumnValueFilter filter1 = new SingleColumnValueFilter(Bytes.toBytes("information"),
    Bytes.toBytes("age"), CompareOp.GREATER_OR_EQUAL, Bytes.toBytes(startage));
  SingleColumnValueFilter filter2 = new SingleColumnValueFilter(Bytes.toBytes("information"),
    Bytes.toBytes("age"), CompareOp.LESS_OR_EQUAL, Bytes.toBytes(endage));
  filterList.addFilter(filter1);
  filterList.addFilter(filter2);
  Scan scan = new Scan();
  scan.setFilter(filterList);
  ResultScanner rs = table.getScanner(scan);
  for (Result r : rs) {
    for (Cell cell : r.listCells()) {
    System.out.println(Bytes.toString(cell.getRow()) + "   Familiy:Quilifier : "
      + Bytes.toString(cell.getFamily()) + ":" + Bytes.toString(cell.getQualifier()) + "   Value : "
      + Bytes.toString(cell.getValue()) + "   Time : " + cell.getTimestamp());
    }
  }
  table.close();
  }
  public static void main(String[] args) throws IOException {
  String[] col1 = new String[] { "name", "age" };
  String[] val1 = new String[] { "xx", "18" };
  String[] col2 = new String[] { "chinese", "math" };
  String[] val2 = new String[] { "60", "70" };
  createtable("student", "imformation", "score");
  insertdata("student", "1", "imformation", col1, val1);
  insertdata("student", "1", "imformation", col2, val2);
  deleterow("student", "1");
  deletecol("student", "1", "imformation", "chinese");
  deleteversion("student", "1", "imformation", 1533482642629L);
  deletefamily("student", "imformation");
  droptable("student");
  scantable("student");
  scanrow("student", "1");
  scanspecifycolumn("student", "1", "imformation", "chinese");
  scanspecifytimestamp("student", "imformation", 1533482642629L);
  scanallversion("student", "1");
  scanfilterage("student", 18, 20);
  }
}
相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
&nbsp; 相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情:&nbsp;https://cn.aliyun.com/product/hbase &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
7月前
|
Java Shell 分布式数据库
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
162 0
|
存储 分布式计算 Hadoop
分布式数据库HBase的常用操作的对应的API编程接口
HBase是一个分布式数据库系统,基于Google的BigTable和Apache Hadoop的HDFS构建。它提供了一个高性能、可扩展的数据库平台,适用于大规模的数据存储和处理。在阿里云开发者社区中,很多开发者都会使用HBase进行数据存储和处理。本文将介绍HBase的常用操作及其对应的API编程接口。
306 0
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
34 3
|
2月前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
59 3
|
2月前
|
分布式计算 Java 大数据
大数据-147 Apache Kudu 常用 Java API 增删改查
大数据-147 Apache Kudu 常用 Java API 增删改查
36 1
|
2月前
|
存储 数据库连接 API
构建RESTful API:使用FastAPI实现高效的增删改查操作
构建RESTful API:使用FastAPI实现高效的增删改查操作
74 0
|
5月前
|
API
zookeeper 使用api 进行节点增删改查及实现简易的配置中心
zookeeper 使用api 进行节点增删改查及实现简易的配置中心
53 2
|
6月前
|
Java 大数据 API
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
155 0
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
|
7月前
|
Java 分布式数据库 API
HBase java API
HBase java API
50 0
|
7月前
|
存储 分布式计算 分布式数据库
对给定的数据利用MapReduce编程实现数据的清洗和预处理,编程实现数据存储到HBase数据库,实现数据的增删改查操作接口
对给定的数据利用MapReduce编程实现数据的清洗和预处理,编程实现数据存储到HBase数据库,实现数据的增删改查操作接口
61 0