Hive Tunning(三) 最佳实践

简介: 在上一讲的基础上,我们来做来一个实际的例子来展示如何在实操中进行高效的hive查询作业。
在上一讲的基础上,我们来做来一个实际的例子来展示如何在实操中进行高效的hive查询作业。

(1)首先我们建立一个表

CREATE EXTERNAL TABLE pos_staging( 
txnid STRING, 
txntime STRING, 
givenname STRING, 
lastname STRING, 
postalcode STRING, 
storeid STRING, 
indl STRING, 
productid STRING, 
purchaseamount FLOAT, 
creditcard STRING 
)ROW FORMAT DELIMITED FIELDS TERMINATED BY '|' 
LOCATION '/user/hdfs/staging_data/pos_staging';
我们建立一张外部表是为了初始化或者加载mapreduce或者pig作业产生的元数据,然后我们自己建立一张优化的表。

(2)建立调优表的时候,我们就要考虑使用哪种分区模式,比如按时间分区。

cf54e18c32b8856c4b04f71c47dd359c8bae5bac
以下是两个关于动态分区的参数:
所有节点的动态分区的最大数以及每个节点的动态分区的最大数
hive.exec.max.dynamic.partitions=1000 
hive.exec.max.dynamic.partitions.pernode=100

(3)建立调优表

CREATE TABLE fact_pos 
( 
txnid STRING, 
txntime STRING, 
givenname STRING, 
lastname STRING, 
postalcode STRING, 
storeidSTRING, 
indl STRING, 
productid STRING,

purchaseamountFLOAT, 
creditcardSTRING 
) PARTITIONED BY (part_dt STRING)! 
CLUSTERED BY (txnid) 
SORTED BY (txnid) 
INTO 24 BUCKETS 
STORED AS ORC tblproperties("orc.compress"="SNAPPY");

CLUSTERED 和SORTED 使用都是同一个字段,它就是连接的时候需要使用的字段。

BUCKETS也出现了,前面一直不理解的概念,现在出现了还分了24个。

(4)把数据插入到调优表中

FROM pos_staging 
INSERT OVERWRITE TABLE fact_pos 
PARTITION (part_dt) 
SELECT 
txnid, 
txntime, 
givenname, 
lastname, 
postalcode, 
storeid, 
indl, 
productid, 
purchaseamount, 
creditcard, 
concat(year(txntime),month(txntime)) as part_dt 
SORT BY productid;

语句中使用了前面教的自动分区的语句,按照年月自动分区。

d6040f822b0a42048ea97669549c217e71cc2a31

hadoop fs-setrep-R –w 5 /apps/hive/warehouse/fact_pos

上面的命令当中是个hdfs中存数的fact_pos表增加备份,因为hdfs的数据是存得很分散的,增加备份因为会使得节点上的数据增多,然后查询的时候,hive

从本地直接就可以获取到的数据的几率提高,增快查询速度。

当然考虑到空间的问题,可以减少一下备份的数量。

上述流程我们也可以把它放到oozie中自动执行。

3f85e8db62fdd4f07a5f267b9c27af617275f646

。。。又一个熟悉的词出现了。

在hdfs-site.xml或者Ambari settings for HDFS, 设置完要重启。 

dfs.block.local-path-access.user=hdfs 
dfs.client.read.shortcircuit=true 
dfs.client.read.shortcircuit.skip.checksum=false
51b1e3086c8875a7e62399a170bdb80efcbdbbad
开启了这个东东有什么作用呢?当数据块在本地的时候,它可以不需要开启一个端口来读,可以直接访问,就像图中的闪电那样。

(5)执行查询

set hive.mapred.reduce.tasks.speculative.execution=false; 
set io.sort.mb=300; 
set mapreduce.reduce.input.limit=-1; 
select productid, ROUND(SUM(purchaseamount),2) as total 
from fact_pos 
where part_dt between ‘201210’ and ‘201212’ 
group by productid 
order by total desc 
limit 100;
查询之前先对查询设置相应的运行参数。

目录
相关文章
|
SQL 关系型数据库 MySQL
Flink CDC + Hudi + Hive + Presto构建实时数据湖最佳实践
Flink CDC + Hudi + Hive + Presto构建实时数据湖最佳实践
525 0
|
SQL 分布式计算 关系型数据库
Sqoop数据导入到Hive表的最佳实践
Sqoop数据导入到Hive表的最佳实践
|
SQL 分布式计算 关系型数据库
Hive 数仓迁移 JindoFS/OSS 数据湖最佳实践
Hive 数仓是大多数迁移客户都会遇到的场景。在迁移过程中,不建议同时在新集群进行业务升级(比如从 Hive on MR 迁移到 Hive on Tez 或 Spark SQL等),这些业务升级可以在迁移完成后进行。1. 元数据同步Hive 元数据是对于 Hive 表来说非常关键,除了表结构信息,里面还记录着 Hive 表与底层文件系统的关联关系,许多上层服务都依赖 Hive 元数据提供服务。a.
932 0
|
SQL 数据采集 数据挖掘
大数据行业应用之Hive数据分析航班线路相关的各项指标
大数据行业应用之Hive数据分析航班线路相关的各项指标
350 1
|
SQL 存储 大数据
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
522 0
|
SQL 分布式计算 数据库
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
593 0
|
5月前
|
SQL 分布式计算 大数据
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
本文深入介绍 Hive 与大数据融合构建强大数据仓库的实战指南。涵盖 Hive 简介、优势、安装配置、数据处理、性能优化及安全管理等内容,并通过互联网广告和物流行业案例分析,展示其实际应用。具有专业性、可操作性和参考价值。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
|
12月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
228 0
|
SQL 分布式计算 大数据
大数据处理平台Hive详解
【7月更文挑战第15天】Hive作为基于Hadoop的数据仓库工具,在大数据处理和分析领域发挥着重要作用。通过提供类SQL的查询语言,Hive降低了数据处理的门槛,使得具有SQL背景的开发者可以轻松地处理大规模数据。然而,Hive也存在查询延迟高、表达能力有限等缺点,需要在实际应用中根据具体场景和需求进行选择和优化。