一、简述
在使用HBase时,如果你的数据量达到了数十亿行或数百万列,此时能否在查询中返回大量数据将受制于网络的带宽,即便网络状况允许,但是客户端的计算处理也未必能够满足要求。在这种情况下,协处理器(Coprocessors)应运而生。它允许你将业务计算代码放入在RegionServer的协处理器中,将处理好的数据再返回给客户端,这可以极大地降低需要传输的数据量,从而获得性能上的提升。同时协处理器也允许用户扩展实现HBase目前所不具备的功能,如权限校验、二级索引、完整性约束等。
二、协处理器类型
2.1 Observer协处理器
1. 功能
Observer协处理器类似于关系型数据库中的触发器,当发生某些事件的时候这类协处理器会被Server端调用。通常可以用来实现下面功能:
- 权限校验:在执行Get或Put操作之前,您可以使用preGet或prePut方法检查权限;
- 完整性约束: HBase不支持关系型数据库中的外键功能,可以通过触发器在插入或者删除数据的时候,对关联的数据进行检查;
- 二级索引: 可以使用协处理器来维护二级索引。
2. 类型
当前Observer协处理器有以下四种类型:
- RegionObserver :
允许您观察Region上的事件,例如Get和Put操作。
- RegionServerObserver :
允许您观察与RegionServer操作相关的事件,例如启动,停止或执行合并,提交或回滚。
- MasterObserver :
允许您观察与HBase Master相关的事件,例如表创建,删除或schema修改。
- WalObserver :
允许您观察与预写日志(WAL)相关的事件。
3. 接口
以上四种类型的Observer协处理器均继承自Coprocessor接口,这四个接口中分别定义了所有可用的钩子方法,以便在对应方法前后执行特定的操作。通常情况下,我们并不会直接实现上面接口,而是继承其Base实现类,Base实现类只是简单空实现了接口中的方法,这样我们在实现自定义的协处理器时,就不必实现所有方法,只需要重写必要方法即可。
这里以RegionObservers为例,其接口类中定义了所有可用的钩子方法,下面截取了部分方法的定义,多数方法都是成对出现的,有pre就有post:
4. 执行流程
- 客户端发出 put 请求
- 该请求被分派给合适的 RegionServer 和 region
- coprocessorHost 拦截该请求,然后在该表的每个 RegionObserver 上调用 prePut()
- 如果没有被prePut()拦截,该请求继续送到 region,然后进行处理
- region 产生的结果再次被 CoprocessorHost 拦截,调用postPut()
- 假如没有postPut()拦截该响应,最终结果被返回给客户端
如果大家了解Spring,可以将这种执行方式类比于其AOP的执行原理即可,官方文档当中也是这样类比的:
If you are familiar with Aspect Oriented Programming (AOP), you can think of a coprocessor as applying advice by intercepting a request and then running some custom code,before passing the request on to its final destination (or even changing the destination).
如果您熟悉面向切面编程(AOP),您可以将协处理器视为通过拦截请求然后运行一些自定义代码来使用Advice,然后将请求传递到其最终目标(或者更改目标)。
2.2 Endpoint协处理器
Endpoint协处理器类似于关系型数据库中的存储过程。客户端可以调用Endpoint协处理器在服务端对数据进行处理,然后再返回。
以聚集操作为例,如果没有协处理器,当用户需要找出一张表中的最大数据,即 max 聚合操作,就必须进行全表扫描,然后在客户端上遍历扫描结果,这必然会加重了客户端处理数据的压力。利用 Coprocessor,用户可以将求最大值的代码部署到 HBase Server 端,HBase将利用底层 cluster 的多个节点并发执行求最大值的操作。即在每个 Region 范围内执行求最大值的代码,将每个 Region 的最大值在 Region Server 端计算出来,仅仅将该 max 值返回给客户端。之后客户端只需要将每个 Region 的最大值进行比较而找到其中最大的值即可。
三、协处理的加载方式
要使用我们自己开发的协处理器,必须通过静态(使用HBase配置)或动态(使用HBase Shell或Java API)加载它。
- 静态加载的协处理器称之为 System Coprocessor(系统级协处理器),作用范围是整个HBase上的所有表,需要重启HBase服务;
- 动态加载的协处理器称之为 Table Coprocessor(表处理器),作用于指定的表,不需要重启HBase服务。
其加载和卸载方式分别介绍如下。
四、静态加载与卸载
4.1 静态加载
静态加载分以下三步:
-
在hbase-site.xml定义需要加载的协处理器。
1
2
3
4
5
6 1<property>
2 <name>hbase.coprocessor.region.classes</name>
3 <value>org.myname.hbase.coprocessor.endpoint.SumEndPoint</value>
4</property>
5
6
<name>标签的值必须是下面其中之一:
-
RegionObservers 和 Endpoints协处理器:hbase.coprocessor.region.classes
-
WALObservers协处理器: hbase.coprocessor.wal.classes
-
MasterObservers协处理器:hbase.coprocessor.master.classes
<value>必须是协处理器实现类的全限定类名。如果为加载指定了多个类,则类名必须以逗号分隔。
- 将jar(包含代码和所有依赖项)放入HBase安装目录中的lib目录下;
- 重启HBase。
4.2 静态卸载
- 从hbase-site.xml中删除配置的协处理器的<property>元素及其子元素;
- 从类路径或HBase的lib目录中删除协处理器的JAR文件(可选);
- 重启HBase。
五、动态加载与卸载
使用动态加载协处理器,不需要重新启动HBase。但动态加载的协处理器是基于每个表加载的,只能用于所指定的表。
此外,在使用动态加载必须使表脱机(disable)以加载协处理器。动态加载通常有两种方式:Shell 和 Java API 。
以下示例基于两个前提:
- coprocessor.jar 包含协处理器实现及其所有依赖项。
- JAR 包存放在HDFS上的路径为:hdfs:// <namenode>:<port> / user / <hadoop-user> /coprocessor.jar
5.1 HBase Shell动态加载
-
使用HBase Shell禁用表
1
2
3 1hbase > disable 'tableName'
2
3
-
使用如下命令加载协处理器
1
2
3
4
5 1hbase > alter 'tableName', METHOD => 'table_att', 'Coprocessor'=>'hdfs://<namenode>:<port>/
2user/<hadoop-user>/coprocessor.jar| org.myname.hbase.Coprocessor.RegionObserverExample|1073741823|
3arg1=1,arg2=2'
4
5
Coprocessor包含由管道(|)字符分隔的四个参数,按顺序解释如下:
- JAR包路径:通常为JAR包在HDFS上的路径。关于路径以下两点需要注意:
- 允许使用通配符,例如:hdfs://<namenode>:<port>/user/<hadoop-user>/*.jar 来添加指定的JAR包;
- 可以使指定目录,例如:hdfs://<namenode>:<port>/user/<hadoop-user>/ ,这会添加目录中的所有JAR包,但不会搜索子目录中的JAR包。
- 类名:协处理器的完整类名。
- 优先级:协处理器的优先级,遵循数字的自然序,即值越小优先级越高。可以为空,在这种情况下,将分配默认优先级值。
- 可选参数 :传递的协处理器的可选参数。
-
启用表
1
2
3 1hbase > enable 'tableName'
2
3
-
验证协处理器是否已加载
1
2
3 1hbase > describe 'tableName'
2
3
协处理器出现在TABLE_ATTRIBUTES属性中则代表加载成功。
5.2 HBase Shell动态卸载
-
禁用表
1
2
3 1hbase> disable 'tableName'
2
3
-
移除表协处理器
1
2
3 1hbase> alter 'tableName', METHOD => 'table_att_unset', NAME => 'coprocessor$1'
2
3
-
启用表
1
2
3 1hbase> enable 'tableName'
2
3
5.3 Java API 动态加载
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21 1TableName tableName = TableName.valueOf("users");
2String path = "hdfs://<namenode>:<port>/user/<hadoop-user>/coprocessor.jar";
3Configuration conf = HBaseConfiguration.create();
4Connection connection = ConnectionFactory.createConnection(conf);
5Admin admin = connection.getAdmin();
6admin.disableTable(tableName);
7HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
8HColumnDescriptor columnFamily1 = new HColumnDescriptor("personalDet");
9columnFamily1.setMaxVersions(3);
10hTableDescriptor.addFamily(columnFamily1);
11HColumnDescriptor columnFamily2 = new HColumnDescriptor("salaryDet");
12columnFamily2.setMaxVersions(3);
13hTableDescriptor.addFamily(columnFamily2);
14hTableDescriptor.setValue("COPROCESSOR$1", path + "|"
15+ RegionObserverExample.class.getCanonicalName() + "|"
16+ Coprocessor.PRIORITY_USER);
17admin.modifyTable(tableName, hTableDescriptor);
18admin.enableTable(tableName);
19
20
21
在HBase 0.96及其以后版本中,HTableDescriptor的addCoprocessor()方法提供了一种更为简便的加载方法。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19 1TableName tableName = TableName.valueOf("users");
2Path path = new Path("hdfs://<namenode>:<port>/user/<hadoop-user>/coprocessor.jar");
3Configuration conf = HBaseConfiguration.create();
4Connection connection = ConnectionFactory.createConnection(conf);
5Admin admin = connection.getAdmin();
6admin.disableTable(tableName);
7HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
8HColumnDescriptor columnFamily1 = new HColumnDescriptor("personalDet");
9columnFamily1.setMaxVersions(3);
10hTableDescriptor.addFamily(columnFamily1);
11HColumnDescriptor columnFamily2 = new HColumnDescriptor("salaryDet");
12columnFamily2.setMaxVersions(3);
13hTableDescriptor.addFamily(columnFamily2);
14hTableDescriptor.addCoprocessor(RegionObserverExample.class.getCanonicalName(), path,
15Coprocessor.PRIORITY_USER, null);
16admin.modifyTable(tableName, hTableDescriptor);
17admin.enableTable(tableName);
18
19
5.4 Java API 动态卸载
卸载其实就是重新定义表但不设置协处理器。这会删除所有表上的协处理器。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17 1TableName tableName = TableName.valueOf("users");
2String path = "hdfs://<namenode>:<port>/user/<hadoop-user>/coprocessor.jar";
3Configuration conf = HBaseConfiguration.create();
4Connection connection = ConnectionFactory.createConnection(conf);
5Admin admin = connection.getAdmin();
6admin.disableTable(tableName);
7HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
8HColumnDescriptor columnFamily1 = new HColumnDescriptor("personalDet");
9columnFamily1.setMaxVersions(3);
10hTableDescriptor.addFamily(columnFamily1);
11HColumnDescriptor columnFamily2 = new HColumnDescriptor("salaryDet");
12columnFamily2.setMaxVersions(3);
13hTableDescriptor.addFamily(columnFamily2);
14admin.modifyTable(tableName, hTableDescriptor);
15admin.enableTable(tableName);
16
17
六、协处理器案例
这里给出一个简单的案例,实现一个类似于Redis中append 命令的协处理器,当我们对已有列执行put操作时候,HBase默认执行的是update操作,这里我们修改为执行append操作。
1
2
3
4
5
6
7
8
9
10
11 1# redis append 命令示例
2redis> EXISTS mykey
3(integer) 0
4redis> APPEND mykey "Hello"
5(integer) 5
6redis> APPEND mykey " World"
7(integer) 11
8redis> GET mykey
9"Hello World"
10
11
6.1 创建测试表
1
2
3
4 1# 创建一张杂志表 有文章和图片两个列族
2hbase > create 'magazine','article','picture'
3
4
6.2 协处理器编程
完整代码可见本仓库:hbase-observer-coprocessor
新建Maven工程,导入下面依赖:
1
2
3
4
5
6
7
8
9
10
11
12 1<dependency>
2 <groupId>org.apache.hbase</groupId>
3 <artifactId>hbase-common</artifactId>
4 <version>1.2.0</version>
5</dependency>
6<dependency>
7 <groupId>org.apache.hbase</groupId>
8 <artifactId>hbase-server</artifactId>
9 <version>1.2.0</version>
10</dependency>
11
12
继承BaseRegionObserver实现我们自定义的RegionObserver,对相同的article:content执行put命令时,将新插入的内容添加到原有内容的末尾,代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33 1public class AppendRegionObserver extends BaseRegionObserver {
2
3 private byte[] columnFamily = Bytes.toBytes("article");
4 private byte[] qualifier = Bytes.toBytes("content");
5
6 @Override
7 public void prePut(ObserverContext<RegionCoprocessorEnvironment> e, Put put, WALEdit edit,
8 Durability durability) throws IOException {
9 if (put.has(columnFamily, qualifier)) {
10 // 遍历查询结果,获取指定列的原值
11 Result rs = e.getEnvironment().getRegion().get(new Get(put.getRow()));
12 String oldValue = "";
13 for (Cell cell : rs.rawCells())
14 if (CellUtil.matchingColumn(cell, columnFamily, qualifier)) {
15 oldValue = Bytes.toString(CellUtil.cloneValue(cell));
16 }
17
18 // 获取指定列新插入的值
19 List<Cell> cells = put.get(columnFamily, qualifier);
20 String newValue = "";
21 for (Cell cell : cells) {
22 if (CellUtil.matchingColumn(cell, columnFamily, qualifier)) {
23 newValue = Bytes.toString(CellUtil.cloneValue(cell));
24 }
25 }
26
27 // Append 操作
28 put.addColumn(columnFamily, qualifier, Bytes.toBytes(oldValue + newValue));
29 }
30 }
31}
32
33
6.3 打包项目
使用maven命令进行打包,打包后的文件名为hbase-observer-coprocessor-1.0-SNAPSHOT.jar
1
2
3 1# mvn clean package
2
3
6.4 上传JAR包到HDFS
1
2
3
4
5
6 1# 上传项目到HDFS上的hbase目录
2hadoop fs -put /usr/app/hbase-observer-coprocessor-1.0-SNAPSHOT.jar /hbase
3# 查看上传是否成功
4hadoop fs -ls /hbase
5
6
6.5 加载协处理器
-
加载协处理器前需要先禁用表
1
2
3 1hbase > disable 'magazine'
2
3
-
加载协处理器
1
2
3 1hbase > alter 'magazine', METHOD => 'table_att', 'Coprocessor'=>'hdfs://hadoop001:8020/hbase/hbase-observer-coprocessor-1.0-SNAPSHOT.jar|com.heibaiying.AppendRegionObserver|1001|'
2
3
-
启用表
1
2
3 1hbase > enable 'magazine'
2
3
-
查看协处理器是否加载成功
1
2
3 1hbase > desc 'magazine'
2
3
协处理器出现在TABLE_ATTRIBUTES属性中则代表加载成功,如下图:
6.6 测试加载结果
插入一组测试数据:
1
2
3
4
5
6 1hbase > put 'magazine', 'rowkey1','article:content','Hello'
2hbase > get 'magazine','rowkey1','article:content'
3hbase > put 'magazine', 'rowkey1','article:content','World'
4hbase > get 'magazine','rowkey1','article:content'
5
6
可以看到对于指定列的值已经执行了append操作:
插入一组对照数据:
1
2
3
4
5
6 1hbase > put 'magazine', 'rowkey1','article:author','zhangsan'
2hbase > get 'magazine','rowkey1','article:author'
3hbase > put 'magazine', 'rowkey1','article:author','lisi'
4hbase > get 'magazine','rowkey1','article:author'
5
6
可以看到对于正常的列还是执行update操作:
6.7 卸载协处理器
-
卸载协处理器前需要先禁用表
1
2
3 1hbase > disable 'magazine'
2
3
-
卸载协处理器
1
2
3 1hbase > alter 'magazine', METHOD => 'table_att_unset', NAME => 'coprocessor$1'
2
3
-
启用表
1
2
3 1hbase > enable 'magazine'
2
3
-
查看协处理器是否卸载成功
1
2
3 1hbase > desc 'magazine'
2
3
6.8 测试卸载结果
依次执行下面命令可以测试卸载是否成功
1
2
3
4
5 1hbase > get 'magazine','rowkey1','article:content'
2hbase > put 'magazine', 'rowkey1','article:content','Hello'
3hbase > get 'magazine','rowkey1','article:content'
4
5
参考资料
- Apache HBase Coprocessors
- Apache HBase Coprocessor Introduction
- HBase高階知識
更多大数据系列文章可以参见个人 GitHub 开源项目: 程序员大数据入门指南