性能测试工具操作数据库(十二)-Loadrunner与Hbase

本文涉及的产品
性能测试 PTS,5000VUM额度
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: Hbase的测试关键是要引用正确的Hbase jar包(还要保证版本的兼容,Hbase1.0开始就要求JDK1.7及以上,而Loadrunner11不支持JDK1.7,所以本文举例用的是Loadrunner12,另外要保证引用的Hbase Jar包也是与服务端的Hbase版本一致,否则也会出现兼容性...
版权声明:本文为博主原创文章,未经博主允许不得转载。欢迎访问我的博客 https://blog.csdn.net/smooth00/article/details/74295829

Hbase的测试关键是要引用正确的Hbase jar包(还要保证版本的兼容,Hbase1.0开始就要求JDK1.7及以上,而Loadrunner11不支持JDK1.7,所以本文举例用的是Loadrunner12,另外要保证引用的Hbase Jar包也是与服务端的Hbase版本一致,否则也会出现兼容性问题)。

1、在loadrunner中新建脚本(本文以LoadRunner12.02为例),要求选择协议类型为Java Vuser
2、在Replay-->Runtime Settings设置Java VM路径,由于LoadRunner12对jdk1.8的支持不好,本次测试是拷贝了一份绿色免安装版(32位)的jdk1.7.0_67,所以路径选择固定路径模式(Use the Specified JDK),并设置好JDK1.7的路径。
3、使用Java操作Hbase需要相关的Jar包(可以去官网下载),也可以下载我上传的包(性能测试工具所引用的hbase依赖包),放到include目录或其他目录下,并在Run-time Settings中配置Classpath


4、在Java Vuser脚本中编写Hbase的测试代码(举例如下,具体需要配置好):

/*
 * LoadRunner Java script. (Build: _build_number_)
 * 
 * Script Description: 
 *                     
 */
import java.io.IOException;               
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Delete;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.MasterNotRunningException;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.hbase.ZooKeeperConnectionException;
import org.apache.log4j.Logger;
import org.apache.log4j.PropertyConfigurator;
import org.apache.log4j.xml.DOMConfigurator;
import java.io.File;

import lrapi.lr;

public class Actions
{ 
	String tableName="student";
	Configuration configuration=null;	
	public int init() throws Throwable {
		//加载日志输出方式
	    File directory = new File(".");
	    DOMConfigurator.configure(directory.getCanonicalPath()+"\\log4j.xml");//加载log4j.xml文件
	    //PropertyConfigurator.configure("E:/study/log4j/log4j.properties");//加载.properties文件
	    Logger log=Logger.getLogger("org.zblog.test");
	    System.setProperty("hadoop.home.dir", directory.getCanonicalPath()+"\\hadoop-common-2.2.0-bin-master");
	    
	    configuration = HBaseConfiguration.create();       
	    //config.set("hbase.zookeeper.quorum", "hellotest");//单机            
	    configuration.set("hbase.zookeeper.quorum", "agent01.org.cn,agent02.org.cn,master.org.cn");
	    // zookeeper地址(包括一个主节点,两个子节点)  
	    configuration.set("hbase.zookeeper.property.clientPort", "2181");// zookeeper端口  
	    configuration.set("hbase.regionserver.port", "16020");
        configuration.set("zookeeper.znode.parent", "/hbase-unsecure");
	    configuration.set("hbase.rootdir", "hdfs://master.org.cn:8020/apps/hbase/data");
	    //connection = ConnectionFactory.createConnection(config); 
		return 0;
	}//end of init


	public int action() throws Throwable {    
		createTable(configuration, tableName);
		addData(configuration, tableName);
		getData(configuration, tableName);
		getAllData(configuration, tableName);
		deleteDate(configuration, tableName);
		dropTable(configuration, tableName);  
		return 0;
	}//end of action


	public int end() throws Throwable {
		return 0;
	}//end of end

     /**
  * create a new Table
  * @param configuration Configuration
  * @param tableName String,the new Table's name
  * */
 public static void createTable(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin = new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	admin.disableTable(tableName);
    	admin.deleteTable(tableName);
    	System.out.println(tableName+"is exist ,delete ......");
		}     
		HTableDescriptor tableDescriptor=new HTableDescriptor(TableName.valueOf(tableName));
		tableDescriptor.addFamily(new HColumnDescriptor("info"));
		tableDescriptor.addFamily(new HColumnDescriptor("address"));
		admin.createTable(tableDescriptor);
		System.out.println("end create table");
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
  
 }
 
 /**
  * Delete the existing table
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void dropTable(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin = new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	admin.disableTable(tableName);
    	admin.deleteTable(tableName);
    	System.out.println(tableName+"delete success!");
		}else{
    	System.out.println(tableName+"Table does not exist!");
		}
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 
 /**
  * insert a data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void addData(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin = new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	HTable table=new HTable(configuration, tableName);
    	Put put=new Put(Bytes.toBytes("zhangsan"));
    	put.add(Bytes.toBytes("info"), Bytes.toBytes("age"), Bytes.toBytes("28"));
    	table.put(put);
    	System.out.println("add success!");
		}else{
    	System.out.println(tableName+"Table does not exist!");
		}
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 
 /**
  * Delete a data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void deleteDate(Configuration configuration,String tableName){
  HBaseAdmin admin;
  try {
		admin=new HBaseAdmin(configuration);
		if(admin.tableExists(tableName)){
    	HTable table=new HTable(configuration, tableName);
    	Delete delete=new Delete(Bytes.toBytes("zhangsan"));
    	table.delete(delete);
    	System.out.println("delete success!");
		}else{
    	System.out.println("Table does not exist!");
		}
  } catch (MasterNotRunningException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (ZooKeeperConnectionException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 

 /**
  * get a data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void getData(Configuration configuration,String tableName){
  HTable table;
  try {
		table = new HTable(configuration, tableName);
		Get get=new Get(Bytes.toBytes("zhangsan"));
		Result result=table.get(get);
 
		for(Cell cell:result.rawCells()){   
    	System.out.println("RowName:"+new String(CellUtil.cloneRow(cell))+" ");
    	System.out.println("Timetamp:"+cell.getTimestamp()+" ");
    	System.out.println("column Family:"+new String(CellUtil.cloneFamily(cell))+" ");
    	System.out.println("row Name:"+new String(CellUtil.cloneQualifier(cell))+" ");
    	System.out.println("value:"+new String(CellUtil.cloneValue(cell))+" ");
		}
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
 }
 
 /**
  * insert all data
  * @param configuration Configuration
  * @param tableName String,Table's name
  * */
 public static void getAllData(Configuration configuration,String tableName){
  HTable table;
  try {
		table=new HTable(configuration, tableName);
		Scan scan=new Scan();
		ResultScanner results=table.getScanner(scan);
		for(Result result:results){
    	for(Cell cell:result.rawCells()){   
     		System.out.println("RowName:"+new String(CellUtil.cloneRow(cell))+" ");
     		System.out.println("Timetamp:"+cell.getTimestamp()+" ");
     		System.out.println("column Family:"+new String(CellUtil.cloneFamily(cell))+" ");
     		System.out.println("row Name:"+new String(CellUtil.cloneQualifier(cell))+" ");
     		System.out.println("value:"+new String(CellUtil.cloneValue(cell))+" ");
			}
		}
  } catch (IOException e) {
		// TODO Auto-generated catch block
		e.printStackTrace();
  }
    
 }
}

5、保存脚本,同时将Hadoop-common-2.2.0-bin-master文件目录放到脚本的根目录下(因为以上代码写的取文件路径就是脚本根目录),这么做的目的主要是Windows下调用hadoop组件,如果没有winutils.exe就会报错(可以到网上下载这个Hadoop-common-2.2.0-bin-master包,上面提供下载的性能测试工具所引用的hbase依赖包里也有)。

6、运行脚本,通过LoadRunner的Replay Log可以看到数据操作测试执行成功:


7、通过性能测试工具调用Hbase的最大挑战是某些Jar包的缺失和版本的不兼容,所以本文也只能是提供个参考,具体应用的时候需要根据服务端部署的Hadoop版本和开发应用的需要,进行配置和引用相关的Jar包,并通过Loadrunner的Replay调试功能,不断的解决报错问题(是个考验耐心和细心的过程,中间遇到的问题有些可能是需要不断搜索外文网站和一些社区论坛才能找到正确的解释,没办法,开源技术没有现成的资料和使用说明,就得靠自己摸索和不断网上搜索)。

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
20天前
|
SQL 关系型数据库 数据库
国产数据实战之docker部署MyWebSQL数据库管理工具
【10月更文挑战第23天】国产数据实战之docker部署MyWebSQL数据库管理工具
60 4
国产数据实战之docker部署MyWebSQL数据库管理工具
|
8天前
|
安全 前端开发 测试技术
如何选择合适的自动化安全测试工具
选择合适的自动化安全测试工具需考虑多个因素,包括项目需求、测试目标、系统类型和技术栈,工具的功能特性、市场评价、成本和许可,以及集成性、误报率、社区支持、易用性和安全性。综合评估这些因素,可确保所选工具满足项目需求和团队能力。
|
7天前
|
监控 网络协议 Java
一些适合性能测试脚本编写和维护的工具
一些适合性能测试脚本编写和维护的工具
|
7天前
|
安全 网络协议 关系型数据库
最好用的17个渗透测试工具
渗透测试是安全人员为防止恶意黑客利用系统漏洞而进行的操作。本文介绍了17款业内常用的渗透测试工具,涵盖网络发现、无线评估、Web应用测试、SQL注入等多个领域,包括Nmap、Aircrack-ng、Burp Suite、OWASP ZAP等,既有免费开源工具,也有付费专业软件,适用于不同需求的安全专家。
11 2
|
18天前
|
Web App开发 定位技术 iOS开发
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
19 1
|
1月前
|
Java 流计算
Flink-03 Flink Java 3分钟上手 Stream 给 Flink-02 DataStreamSource Socket写一个测试的工具!
Flink-03 Flink Java 3分钟上手 Stream 给 Flink-02 DataStreamSource Socket写一个测试的工具!
37 1
Flink-03 Flink Java 3分钟上手 Stream 给 Flink-02 DataStreamSource Socket写一个测试的工具!
|
1月前
|
jenkins 测试技术 持续交付
提升软件测试效率的实用技巧与工具
【10月更文挑战第12天】 本文将深入探讨如何通过优化测试流程、引入自动化工具和持续集成等策略,来显著提高软件测试的效率。我们将分享一些实用的技巧和工具,帮助测试人员更高效地发现和定位问题,确保软件质量。
46 2
|
1月前
|
测试技术
黑盒功能测试工具UFT的使用
黑盒功能测试工具UFT的使用
36 0
黑盒功能测试工具UFT的使用
|
1月前
|
SQL 数据可视化 关系型数据库
【数据库工具】DBeaver:一款免费的通用数据库工具和 SQL 客户端
【数据库工具】DBeaver:一款免费的通用数据库工具和 SQL 客户端
107 1
|
1月前
|
XML 网络安全 数据格式
Kali渗透测试:Windows事件管理工具wevtutil的使用方法(一)
Kali渗透测试:Windows事件管理工具wevtutil的使用方法(一)