HBase协处理器加载的三种方式

简介:

  好程序员大数据培训分享HBase协处理器加载的三种方式,协处理器加载的三种方式
Shell加载

  1. 上传HDFS
    将打包好的HelloCoprocessor-0.0.1.jar上传服务器,然后放到HDFS上。

切换hadoop用户,创建演示目录

$ hdfs dfs -mkdir /usr/hbase/coprocessor
$ hdfs dfs -put HelloCoprocessor-0.0.1.jar /usr/hbase/coprocessor

  1. Shell 加载协处理器
    我们假设其协处理器类的包名为:

org.myname.hbase.Coprocessor.RegionObserverExample
Shell 操作如下:
hbase> disable 'mytable' # 禁用表,可选
hbase> alter 'mytable', METHOD => 'table_att', 'coprocessor' => '/usr/hbase/coprocessor/HelloCoprocessor-0.0.1.jar'|org.myname.hbase.Coprocessor.RegionObserverExample|1001|arg1=1,arg2=2'
hbase> enable 'mytable' # 禁用表后启用表,可选
结构如下:
hbase> alter 'mytable', METHOD => 'table_att', 'coprocessor' => ①|②|③|④'
解释下上面各个参数:
①:协处理器Jar包路径,要保证所有的RegionServer可读取到。也可以是本地路径,不过建议是放在HDFS上。
②:协处理器的完整类名。
③:协处理器优先级,整数表示。可以为空。
④:传递给协处理器的参数,可以为空。
注:各参数间不要有空格。

  1. 验证是否加载协处理器
    hbase> desc 'mytable'

Table mytable is ENABLE
mytable, {TABLE_ATTRIBUTES => {coprocessor$1 => '/usr/hbase/coprocessor/HelloCoprocessor-0.0.1.jar'|org.myname.hbase.Coprocessor.RegionObserverExample|1001|arg1=1,arg2=2'}}
此验证不保证协处理器能正常工作:shell命令既不保证特定位置存在jar文件,也不验证给定类是否实际包含在jar文件中。

  1. 卸载协处理器
    hbase> disable 'mytable' # 禁用表,可选

hbase> alter 'mytable', METHOD => 'table_att_unset', NAME => 'coprocessor$1'
hbase> enable 'mytable' # 禁用表后启用表,可选
坑:在没有重启HBase情况下,如果修改协处理器代码并重新加载协处理器,请重命名协处理器Jar包的名字,否则不会生效。(由于当前JVM引用了现有的协处理器,因此必须通过重新启动RegionServer来重新启动JVM,以便替换它。)
Api 加载
具体方法是调用HtableDescriptor的addCoprocessor方法。该方法有两个重载方法:
addCoprocessor(String className)
addCoprocessor(className,jarPath,priority,kvs)
第二个重载方法提供了上述Shell中所需的各个参数①②③④,方法一则需要用户手动将jar包分发到各个RegionServer的lib目录下。
示例代码如下:
TableName tableName = TableName.valueOf("mytable");
Path path = new Path("hdfs://:/usr/hbase/coprocessor/HelloCoprocessor-0.0.1.jar");
Configuration conf = HBaseConfiguration.create();
Connection connection = ConnectionFactory.createConnection(conf);
Admin admin = connection.getAdmin();
admin.disableTable(tableName);
HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
HColumnDescriptor columnFamily1 = new HColumnDescriptor("f1");
columnFamily1.setMaxVersions(1);
hTableDescriptor.addFamily(columnFamily1);
HColumnDescriptor columnFamily2 = new HColumnDescriptor("f2");
columnFamily2.setMaxVersions(3);
hTableDescriptor.addFamily(columnFamily2);
hTableDescriptor.addCoprocessor('org.myname.hbase.Coprocessor.RegionObserverExample', path,
Coprocessor.PRIORITY_USER, null);
admin.modifyTable(tableName, hTableDescriptor);
admin.enableTable(tableName);
重新加载表定义,无需使用addCoprocessor()方法设置协处理器的值。这将删除附加到表的任何协处理器。
配置文件加载

  1. 修改配置文件:hbase-site.xml,配置项如下:
    1.1 RegionObservers/Endpoints

<name>hbase.coprocessor.region.classes</name>
<value>org.myname.hbase.Coprocessor.RegionObserverExample</value> 


1.2 WALObservers

<name>hbase.coprocessor.wal.classes</name>
<value>org.myname.hbase.Coprocessor.RegionObserverExample</value> 


1.3 MasterObservers

<name>hbase.coprocessor.master.classes</name>
<value>org.myname.hbase.Coprocessor.RegionObserverExample</value> 


如果想同时配置多个协处理器,可以用逗号分隔多个协处理器的类名。

  1. 添加Jar包
    将您的代码放在HBase的类路径上。一种简单的方法是将jar(包含代码和所有依赖项)放入HBase的安装目录lib/中。
  2. 重启HBase生效。
  3. 静态卸载
    从hbase-site.xml中删除协处理器的元素,包括子元素。

重启HBase。
从类路径或HBase的lib/目录中删除协处理器的JAR文件。(可选)
本文转载于网络

相关文章
|
存储 算法 分布式数据库
HBase 加载Hfile时的读取过程
Hfile分为4部分,其中loadOnOpen section 和trailer这2部分是open file时就会加载到内存的,本文简述其读取步骤。
2061 0
HBase 加载Hfile时的读取过程
|
搜索推荐 Java 分布式数据库
|
分布式计算 Java Hadoop
|
分布式数据库 Hbase 设计模式
|
分布式数据库 Hbase 存储
hbase协处理器Coprocessor(简介)
一:介绍 把一部分计算也移动到数据的存放端;允许用户执行region级的操作;可以动态加载。 二:使用场景: 1、使用钩子来关联行修改操作来维护辅助索引,或维护一些数据间的引用完整性。
1895 0
|
存储 分布式数据库 Hbase
Hbase协处理器coprocessor
对每个region进行处理,弥补了scan的时候有限的几个过滤器的不足 分为两种类型 observer 观察者相当于触发器 Endpoint终端相当于存储过程 下面的观察者实现查询之前替换掉行键为Jack的KeyValue import java.io.IOException; import java.util.List; import org.apache.hadoop.hba
2174 0
|
Java Shell Hbase
Impala之加载HBase数据
        Impala如何加载HBase数据?本文将为大家进行详细介绍Impala加载HBase数据的步骤。         第一步:HBase创建表(或选择已有表)         HBase shell命令行执行命令: create 'impala_hbase_test...
1902 0
|
11天前
|
分布式计算 Java Hadoop
java使用hbase、hadoop报错举例
java使用hbase、hadoop报错举例
51 6
|
5月前
|
分布式计算 Ubuntu Hadoop
Ubuntu22.04下搭建Hadoop3.3.6+Hbase2.5.6+Phoenix5.1.3开发环境的指南
呈上,这些步骤如诗如画,但有效且动人。仿佛一个画家在画布上描绘出一幅完美的画面,这就是你的开发环境。接下来,尽情去创造吧,祝编程愉快!
263 19
|
分布式计算 Java Hadoop
java使用hbase、hadoop报错举例
java使用hbase、hadoop报错举例
261 4