性能测试工具操作数据库(十二)-Loadrunner与Hbase

本文涉及的产品
性能测试 PTS,5000VUM额度
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Hbase的测试关键是要引用正确的Hbase jar包(还要保证版本的兼容,Hbase1.0开始就要求JDK1.7及以上,而Loadrunner11不支持JDK1.7,所以本文举例用的是Loadrunner12,另外要保证引用的Hbase Jar包也是与服务端的Hbase版本一致,否则也会出现兼容性...
版权声明:本文为博主原创文章,未经博主允许不得转载。欢迎访问我的博客 https://blog.csdn.net/smooth00/article/details/74295829

Hbase的测试关键是要引用正确的Hbase jar包(还要保证版本的兼容,Hbase1.0开始就要求JDK1.7及以上,而Loadrunner11不支持JDK1.7,所以本文举例用的是Loadrunner12,另外要保证引用的Hbase Jar包也是与服务端的Hbase版本一致,否则也会出现兼容性问题)。

1、在loadrunner中新建脚本(本文以LoadRunner12.02为例),要求选择协议类型为Java Vuser
2、在Replay-->Runtime Settings设置Java VM路径,由于LoadRunner12对jdk1.8的支持不好,本次测试是拷贝了一份绿色免安装版(32位)的jdk1.7.0_67,所以路径选择固定路径模式(Use the Specified JDK),并设置好JDK1.7的路径。
3、使用Java操作Hbase需要相关的Jar包(可以去官网下载),也可以下载我上传的包(性能测试工具所引用的hbase依赖包),放到include目录或其他目录下,并在Run-time Settings中配置Classpath


4、在Java Vuser脚本中编写Hbase的测试代码(举例如下,具体需要配置好):

/*
 * LoadRunner Java script. (Build: _build_number_)
 * 
 * Script Description: 
 *                     
 */
import java.io.IOException;               
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Delete;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.MasterNotRunningException;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.hbase.ZooKeeperConnectionException;
import org.apache.log4j.Logger;
import org.apache.log4j.PropertyConfigurator;
import org.apache.log4j.xml.DOMConfigurator;
import java.io.File;

import lrapi.lr;

public class Actions
{ 
	String tableName="student";
	Configuration configuration=null;	
	public int init() throws Throwable {
		//加载日志输出方式
	    File directory = new File(".");
	    DOMConfigurator.configure(directory.getCanonicalPath()+"\\log4j.xml");//加载log4j.xml文件
	    //PropertyConfigurator.configure("E:/study/log4j/log4j.properties");//加载.properties文件
	    Logger log=Logger.getLogger("org.zblog.test");
	    System.setProperty("hadoop.home.dir", directory.getCanonicalPath()+"\\hadoop-common-2.2.0-bin-master");
	    
	    configuration = HBaseConfiguration.create();       
	    //config.set("hbase.zookeeper.quorum", "hellotest");//单机            
	    configuration.set("hbase.zookeeper.quorum", "agent01.org.cn,agent02.org.cn,master.org.cn");
	    // zookeeper地址(包括一个主节点,两个子节点)  
	    configuration.set("hbase.zookeeper.property.clientPort", "2181");// zookeeper端口  
	    configuration.set("hbase.regionserver.port", "16020");
        configuration.set("zookeeper.znode.parent", "/hbase-unsecure");
	    configuration.set("hbase.rootdir", "hdfs://master.org.cn:8020/apps/hbase/data");
	    //connection = ConnectionFactory.createConnection(config); 
		return 0;
	}//end of init


	public int action() throws Throwable {    
		createTable(configuration, tableName);
		addData(configuration, tableName);
		getData(configuration, tableName);
		getAllData(configuration, tableName);
		deleteDate(configuration, tableName);
		dropTable(configuration, tableName);  
		return 0;
	}//end of action


	public int end() throws Throwable {
		return 0;
	}//end of end

     /**
  * create a new Table
  * @param configuration Configuration
  * @param tableName String,the new Table's name
  * */
 public static void createTable(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin = new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	admin.disableTable(tableName);
    	admin.deleteTable(tableName);
    	System.out.println(tableName+"is exist ,delete ......");
		}     
		HTableDescriptor tableDescriptor=new HTableDescriptor(TableName.valueOf(tableName));
		tableDescriptor.addFamily(new HColumnDescriptor("info"));
		tableDescriptor.addFamily(new HColumnDescriptor("address"));
		admin.createTable(tableDescriptor);
		System.out.println("end create table");
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
  
 }
 
 /**
  * Delete the existing table
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void dropTable(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin = new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	admin.disableTable(tableName);
    	admin.deleteTable(tableName);
    	System.out.println(tableName+"delete success!");
		}else{
    	System.out.println(tableName+"Table does not exist!");
		}
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 
 /**
  * insert a data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void addData(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin = new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	HTable table=new HTable(configuration, tableName);
    	Put put=new Put(Bytes.toBytes("zhangsan"));
    	put.add(Bytes.toBytes("info"), Bytes.toBytes("age"), Bytes.toBytes("28"));
    	table.put(put);
    	System.out.println("add success!");
		}else{
    	System.out.println(tableName+"Table does not exist!");
		}
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 
 /**
  * Delete a data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void deleteDate(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin=new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	HTable table=new HTable(configuration, tableName);
    	Delete delete=new Delete(Bytes.toBytes("zhangsan"));
    	table.delete(delete);
    	System.out.println("delete success!");
		}else{
    	System.out.println("Table does not exist!");
		}
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 

 /**
  * get a data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void getData(Configuration configuration,String tableName){
  HTable table;
  try {
		table = new HTable(configuration, tableName);
		Get get=new Get(Bytes.toBytes("zhangsan"));
		Result result=table.get(get);
 
		for(Cell cell:result.rawCells()){   
    	System.out.println("RowName:"+new String(CellUtil.cloneRow(cell))+" ");
    	System.out.println("Timetamp:"+cell.getTimestamp()+" ");
    	System.out.println("column Family:"+new String(CellUtil.cloneFamily(cell))+" ");
    	System.out.println("row Name:"+new String(CellUtil.cloneQualifier(cell))+" ");
    	System.out.println("value:"+new String(CellUtil.cloneValue(cell))+" ");
		}
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 
 /**
  * insert all data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void getAllData(Configuration configuration,String tableName){
  HTable table;
  try {
		table=new HTable(configuration, tableName);
		Scan scan=new Scan();
		ResultScanner results=table.getScanner(scan);
		for(Result result:results){
    	for(Cell cell:result.rawCells()){   
     		System.out.println("RowName:"+new String(CellUtil.cloneRow(cell))+" ");
     		System.out.println("Timetamp:"+cell.getTimestamp()+" ");
     		System.out.println("column Family:"+new String(CellUtil.cloneFamily(cell))+" ");
     		System.out.println("row Name:"+new String(CellUtil.cloneQualifier(cell))+" ");
     		System.out.println("value:"+new String(CellUtil.cloneValue(cell))+" ");
			}
		}
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
    
 }
}

5、保存脚本,同时将Hadoop-common-2.2.0-bin-master文件目录放到脚本的根目录下(因为以上代码写的取文件路径就是脚本根目录),这么做的目的主要是Windows下调用hadoop组件,如果没有winutils.exe就会报错(可以到网上下载这个Hadoop-common-2.2.0-bin-master包,上面提供下载的性能测试工具所引用的hbase依赖包里也有)。

6、运行脚本,通过LoadRunner的Replay Log可以看到数据操作测试执行成功:


7、通过性能测试工具调用Hbase的最大挑战是某些Jar包的缺失和版本的不兼容,所以本文也只能是提供个参考,具体应用的时候需要根据服务端部署的Hadoop版本和开发应用的需要,进行配置和引用相关的Jar包,并通过Loadrunner的Replay调试功能,不断的解决报错问题(是个考验耐心和细心的过程,中间遇到的问题有些可能是需要不断搜索外文网站和一些社区论坛才能找到正确的解释,没办法,开源技术没有现成的资料和使用说明,就得靠自己摸索和不断网上搜索)。

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
2月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
85 4
|
4月前
|
存储 SQL 分布式数据库
深入解析HBase与关系数据库的关键差异
【8月更文挑战第31天】
104 0
|
5月前
|
DataWorks 数据管理 大数据
DataWorks操作报错合集之在连接HBase时出现超时问题,该怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
5月前
|
Oracle 关系型数据库 Java
实时计算 Flink版操作报错合集之cdc postgres数据库,当表行记录修改后报错,该如何修改
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
5月前
|
SQL 监控 关系型数据库
实时计算 Flink版操作报错合集之在设置监控PostgreSQL数据库时,将wal_level设置为logical,出现一些表更新和删除操作报错,怎么办
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
5月前
|
关系型数据库 Java 数据库
实时计算 Flink版操作报错合集之flinksql采PG数据库时报错,该如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
5月前
|
关系型数据库 MySQL 数据库
实时计算 Flink版操作报错合集之在处理PostgreSQL数据库遇到报错。该如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
5月前
|
消息中间件 关系型数据库 数据库
实时计算 Flink版操作报错合集之在使用RDS数据库作为源端,遇到只能同步21个任务,是什么导致的
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
5月前
|
SQL 数据库 Python
Django框架数据库ORM查询操作(6)
【7月更文挑战第6天】```markdown Django ORM常用数据库操作:1) 查询所有数据2) 根据ID查询 3) 精确查询 4) 分页排序
92 1
|
5月前
|
存储 监控 安全
安全规范问题之跟数据库交互涉及的敏感数据操作需要有哪些措施
安全规范问题之跟数据库交互涉及的敏感数据操作需要有哪些措施