编译及使用hive-testbench生成Hive基准测试数据

简介: 编译及使用hive-testbench生成Hive基准测试数据

TPC-DS采用星型、雪花型等多维数据模式。它包含7张事实表,17张纬度表平均每张表含有18列。其工作负载包含99个SQL查询,覆盖SQL99和2003的核心部分以及OLAP。这个测试集包含对大数据集的统计、报表生成、联机查询、数据挖掘等复杂应用,测试用的数据和值是有倾斜的,与真实数据一致。TPC-DS是与真实场景非常接近的一个测试集,也是难度较大的一个测试集。

TPC-DS成为客观衡量多个不同Hadoop版本以及SQL on Hadoop技术的最佳测试集。这个基准测试有以下几个主要特点:

  • 一共99个测试案例,遵循SQL’99和SQL 2003的语法标准,SQL案例比较复杂
  • 分析的数据量大,并且测试案例是在回答真实的商业问题
  • 测试案例中包含各种业务模型(如分析报告型,迭代式的联机分析型,数据挖掘型等)
  • 几乎所有的测试案例都有很高的IO负载和CPU计算需求

hive-testbench提供了基于TPC-DS和TPC-H基准测试的数据生成器和示例查询。这里我们使用TPC-DS。

环境准备

从GitHub官网clone hive-testbench源码,Git地址如下:


https://github.com/hortonworks/hive-testbench.git

安装hive-testbench编译依赖环境


yum -y install gcc gcc-c++

编译并打包hive-testbench


在hive-testbench目录下执行如下脚本进行编译打包


./tpcds-build.sh

等待编译成功即可。

生成并加载数据

在hive-testbench目录下执行如下脚本生成并加载测试数据,生成数据的方式是向集群提交一个MapReduce作业


./tpcds-setup.sh 5

5表示生成的数据量大小GB单位,我们的测试集群规模比较小,这里先生成5G数据

后面可以跟一个数据生成的目录,目录不存在则自动生成,如果不指定数据目录则默认生成到tpcds-generate目录下。

有如上图显示则表示脚本执行成功

Hive查看生成的两个数据库tpcds_bin_partitioned_orc_5,tpcds_text_5

命令行查看HDFS上的数据是否与我们指定的量一致,各个表的大小

数据总量与指定5GB数据量一致

通过Hue验证生成的测试数据

使用Impala命令创建Parquet格式表

使用Impala命令将Hive 库中Text格式的表转换给Parquet格式的表,将tpcds_text_5库中所有表数据插入到对应Parquet格式的表中并对表执行分析

在cdp2.soundhearer.cn节点执行命令:


impala-shell -f ddl_impala_parquet.sql

SQL脚本如下

drop database if exists tpcds_parquet_5 cascade;
create database tpcds_parquet_5;
use tpcds_parquet_5;
set parquet_file_size=512M;
set COMPRESSION_CODEC=snappy;
create table call_center like tpcds_text_5.call_center stored as parquetfile;
create table catalog_page like tpcds_text_5.catalog_page stored as parquetfile;
create table catalog_returns like tpcds_text_5.catalog_returns stored as parquetfile;
create table catalog_sales like tpcds_text_5.catalog_sales stored as parquetfile;
create table customer_address like tpcds_text_5.customer_address stored as parquetfile;
create table customer_demographics like tpcds_text_5.customer_demographics stored as parquetfile;
create table customer like tpcds_text_5.customer stored as parquetfile;
create table date_dim like tpcds_text_5.date_dim stored as parquetfile;
create table household_demographics like tpcds_text_5.household_demographics stored as parquetfile;
create table income_band like tpcds_text_5.income_band stored as parquetfile;
create table inventory like tpcds_text_5.inventory stored as parquetfile;
create table item like tpcds_text_5.item stored as parquetfile;
create table promotion like tpcds_text_5.promotion stored as parquetfile;
create table reason like tpcds_text_5.reason stored as parquetfile;
create table ship_mode like tpcds_text_5.ship_mode stored as parquetfile;
create table store_returns like tpcds_text_5.store_returns stored as parquetfile;
create table store_sales like tpcds_text_5.store_sales stored as parquetfile;
create table store like tpcds_text_5.store stored as parquetfile;
create table time_dim like tpcds_text_5.time_dim stored as parquetfile;
create table warehouse like tpcds_text_5.warehouse stored as parquetfile;
create table web_page like tpcds_text_5.web_page stored as parquetfile;
create table web_returns like tpcds_text_5.web_returns stored as parquetfile;
create table web_sales like tpcds_text_5.web_sales stored as parquetfile;
create table web_site like tpcds_text_5.web_site stored as parquetfile;
insert overwrite table call_center select * from tpcds_text_5.call_center;
insert overwrite table catalog_page select * from tpcds_text_5.catalog_page;
insert overwrite table catalog_returns select * from tpcds_text_5.catalog_returns;
insert overwrite table catalog_sales select * from tpcds_text_5.catalog_sales;
insert overwrite table customer_address select * from tpcds_text_5.customer_address;
insert overwrite table customer_demographics select * from tpcds_text_5.customer_demographics;
insert overwrite table customer select * from tpcds_text_5.customer;
insert overwrite table date_dim select * from tpcds_text_5.date_dim;
insert overwrite table household_demographics select * from tpcds_text_5.household_demographics;
insert overwrite table income_band select * from tpcds_text_5.income_band;
insert overwrite table inventory select * from tpcds_text_5.inventory;
insert overwrite table item select * from tpcds_text_5.item;
insert overwrite table promotion select * from tpcds_text_5.promotion;
insert overwrite table reason select * from tpcds_text_5.reason;
insert overwrite table ship_mode select * from tpcds_text_5.ship_mode;
insert overwrite table store_returns select * from tpcds_text_5.store_returns;
insert overwrite table store_sales select * from tpcds_text_5.store_sales;
insert overwrite table store select * from tpcds_text_5.store;
insert overwrite table time_dim select * from tpcds_text_5.time_dim;
insert overwrite table warehouse select * from tpcds_text_5.warehouse;
insert overwrite table web_page select * from tpcds_text_5.web_page;
insert overwrite table web_returns select * from tpcds_text_5.web_returns;
insert overwrite table web_sales select * from tpcds_text_5.web_sales;
insert overwrite table web_site select * from tpcds_text_5.web_site;
compute stats call_center ;
compute stats catalog_page ;
compute stats catalog_returns ;
compute stats catalog_sales ;
compute stats customer_address ;
compute stats customer_demographics ;
compute stats customer ;
compute stats date_dim ;
compute stats household_demographics ;
compute stats income_band ;
compute stats inventory ;
compute stats item ;
compute stats promotion ;
compute stats reason ;
compute stats ship_mode ;
compute stats store_returns ;
compute stats store_sales ;
compute stats store ;
compute stats time_dim ;
compute stats warehouse ;
compute stats web_page ;
compute stats web_returns ;
compute stats web_sales ;
compute stats web_site ;

查看Impala表信息

相关实践学习
阿里云表格存储使用教程
表格存储(Table Store)是构建在阿里云飞天分布式系统之上的分布式NoSQL数据存储服务,根据99.99%的高可用以及11个9的数据可靠性的标准设计。表格存储通过数据分片和负载均衡技术,实现数据规模与访问并发上的无缝扩展,提供海量结构化数据的存储和实时访问。 产品详情:https://www.aliyun.com/product/ots
相关文章
|
2天前
Mybatis+mysql动态分页查询数据案例——测试类HouseDaoMybatisImplTest)
Mybatis+mysql动态分页查询数据案例——测试类HouseDaoMybatisImplTest)
29 1
|
2天前
|
Java 关系型数据库 数据库连接
Mybatis+MySQL动态分页查询数据经典案例(含代码以及测试)
Mybatis+MySQL动态分页查询数据经典案例(含代码以及测试)
40 1
|
2天前
|
计算机视觉
Google Earth Engine(GEE)——使用MODIS数据单点测试SG滤波和harmonics method 滤波的差异分析
Google Earth Engine(GEE)——使用MODIS数据单点测试SG滤波和harmonics method 滤波的差异分析
53 0
|
2天前
|
传感器 数据采集 算法
LabVIEW无人机大气数据智能测试系统
LabVIEW无人机大气数据智能测试系统
12 3
|
1天前
|
监控 数据挖掘 定位技术
Spartacus 测试,后台修改 product price 数据后,添加到 Cart 时,会带出来最新的价格吗
Spartacus 测试,后台修改 product price 数据后,添加到 Cart 时,会带出来最新的价格吗
15 2
|
2天前
|
JSON 测试技术 数据格式
Elasticsearch 8.X 如何生成 TB 级的测试数据 ?
Elasticsearch 8.X 如何生成 TB 级的测试数据 ?
15 0
|
2天前
|
SQL 数据采集 存储
Hive实战 —— 电商数据分析(全流程详解 真实数据)
关于基于小型数据的Hive数仓构建实战,目的是通过分析某零售企业的门店数据来进行业务洞察。内容涵盖了数据清洗、数据分析和Hive表的创建。项目需求包括客户画像、消费统计、资源利用率、特征人群定位和数据可视化。数据源包括Customer、Transaction、Store和Review四张表,涉及多个维度的聚合和分析,如按性别、国家统计客户、按时间段计算总收入等。项目执行需先下载数据和配置Zeppelin环境,然后通过Hive进行数据清洗、建表和分析。在建表过程中,涉及ODS、DWD、DWT、DWS和DM五层,每层都有其特定的任务和粒度。最后,通过Hive SQL进行各种业务指标的计算和分析。
42 1
Hive实战 —— 电商数据分析(全流程详解 真实数据)
|
2天前
|
人工智能 测试技术
测试数据不再难,人工智能批量生成给你用!
本文介绍了如何利用ChatGPT生成测试数据。测试数据是验证功能和触发异常场景的关键,设计时需全面考虑等价类、边界值和正交法。实践中,先明确数据类型、格式和需求,然后向ChatGPT提供相关信息。例如,对于只能输入中国手机号的输入框,初始提示可能只包含正常手机号,但应进一步补充异常场景,如非数字、长度错误、非中国号码、特殊字符、空输入等。此外,可通过指定yaml格式来满足代码使用需求。总结来说,生成测试数据需清晰定义需求,拆分任务,并系统测试各种变化。
25 2
|
2天前
|
数据可视化
结构方程模型 SEM 多元回归和模型诊断分析学生测试成绩数据与可视化
结构方程模型 SEM 多元回归和模型诊断分析学生测试成绩数据与可视化
|
2天前
|
人工智能 分布式计算 Kubernetes
人工智能,应该如何测试?(三)数据构造与性能测试篇
本文探讨了人工智能场景中的性能测试,区别于传统互联网测试,其复杂性更高。主要关注点包括两类AI产品——业务类和平台类,后者涉及AI全生命周期,测试难度更大。测试重点是模型训练的性能,特别是数据模拟。需要构造大量结构化数据,如不同规模、分布、分片和特征规模的数据,以评估算法效率。此外,还涉及模拟设备规模(如视频流)和节点规模(边缘计算),以测试在大规模负载下的系统性能。文中提到了使用工具如Spark、ffmpeg、流媒体服务器和Kubernetes(K8S)的扩展项目,如Kubemark,来模拟大规模环境。最后,文章介绍了使用Golang进行异步IO操作以构建海量小文件,优化IO性能。
229 0

热门文章

最新文章