一幅长文细学华为MRS大数据开发(三)—— HIVE

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: Apache Hive数据仓库软件有助于使用SQL读取,写入和管理驻留在分布式存储中的大型数据集。可以将结构投影到已经存储的数据上。提供了命令行工具和JDBC驱动程序以将用户连接到Hive上。

3 HIVE

摘要:Apache Hive数据仓库软件有助于使用SQL读取,写入和管理驻留在分布式存储中的大型数据集。可以将结构投影到已经存储的数据上。提供了命令行工具和JDBC驱动程序以将用户连接到Hive上。

作者:来自ArimaMisaki创作

3.1 Hive概述

3.1.1 Hive简介

Hive:Hive是基于Hadoop的数据仓库软件,可以查询和管理PB级别的分布式数据。

Hive特性

  • 灵活方便的ETL(extract/transform/load)。
  • 支持Tez,Spark等多种引擎
  • 可直接访问HDFS文件以及HBase
  • 易用易编程


3.1.2 Hive应用场景

image-20220819114329694


3.1.3 Hive与传统数据仓库比较

Hive 传统数据仓库
存储 HDFS,理论上有无限拓展的可能 集群存储,存在容量上限,而且随着容量的增长,计算速度急剧下降,只能适应与数据量比较小的商业应用,对于超大规模数据无能为力
执行引擎 默认执行引擎Tez 可以选择更加高效的算法来查询,也可以进行更多的优化措施来提高速度
使用方式 HQL SQL
灵活性 元数据存储独立于数据存储之外,从而解耦合元数据和数据 低,数据用途单一
分析速度 计算依赖于集群规模,易拓展, 在数据容量较小时非常快速,数据容量较大时,急剧下降
索引 效率较低 高效
易用性 需要自行开发应用模型,灵活度较高,但易用性较低 集成一整套成熟的报表解决方案,可以较为方便的进行数据的分析
可靠性 数据存储在HDFS,可靠性高、容错性高 可靠性较低,一次查询失败需要重新开始。数据容错依赖于硬件Raid
依赖环境 依赖硬件较低,可适应一般的普通机器 依赖于高性能的商业服务器
价格 开源产品 商用比较昂贵

3.1.4 Hive优点

  • 高可靠、高容错:HiveServer采用集群模式,双MetaStore,超时重试机制
  • 类SQL:指HQL,其类似于SQL语法,内置了大量函数
  • 可扩展:自定义存储格式和函数
  • 多接口:Beeline、JDBC、Thrift、Python、ODBC


3.2 Hive功能及架构

3.2.1 Hive运行流程

  1. Client提交HQL命令
  2. Tez执行查询
  3. YARN为集群中的应用程序分配资源,并未YARN队列中的Hive作业启用授权
  4. Hive根据表类型更新HDFS或Hive仓库的数据
  5. Hive通过JDBC连接返回查询结果


3.2.2 Hive数据存储模型

表中可分区或分桶,分区还可继续分区或分桶。

image-20220819115750466


3.2.3 Hive数据存储模型-分区和分桶

分区:数据表可以按照某个字段的值划分分区。我们可以这么理解:将一个表的数据拆分出来放在不同的文件夹(目录)下。这样的话,分区的本质就是目录,分区数量也不固定,分区下可再有分区或者桶。

:数据可以根据桶的方式将不同数据放入不同的桶中。我们可以这么理解:一个表的数据拆分出来后肯定不是说直接放在文件夹下,而是放在文件中,至于这个文件是在根目录还是某个分区目录我们就不得而知了,我们称这个文件为。桶中基本的原理遵循数据结构中的桶排序,建表时可以指定桶个数,桶内可排序。数据按照某个字段的值Hash后放入某个桶中。


3.2.4 Hive数据存储模型-托管表和外部表

托管表:创建表若不指定表的类型即默认为托管表,Hive会将创建后的表移动到仓库目录。

外部表:若指定创建外部表,则Hive会到数据仓库目录以外的位置访问该表的数据。

说明:如果所有处理都有Hive完成,建议使用托管表。如果要用Hive和其他工具搭配使用来处理同一个数据集,建议使用外部表。

托管表 外部表
CREATE/LOAD 数据移动仓库目录 数据位置不移动
DROP 元数据和数据会被一起删除 只删除元数据


3.2.5 Hive支持的函数

内置函数

  • 数学函数:如round(),floor(),abs(),rand()等
  • 日期函数:如to_date(),month(),day()等
  • 字符串函数:如trim(),length(),substr()等

用户自定义函数(UserDefinedFunction)


3.3 Hive基本操作

3.3.1 Hive使用

打开服务器

$HIVE_HOME/bin/hiveserver2
//通过beeline连接
$HIVE_HOME/bin/beeline -u jdbc:hive2://$HS2_HOST:$HS2_PORT

向其他大数据组件公开自己元数据

$HIVE_HOME/hcatalog/sbin/hcat_server.sh

从Hive发行版0.11.0及更高版本的shell中运行WebHCat服务器

$HIVE_HOME/hcatalog/sbin/webhhcar_server.sh


3.3.2 DDL操作

创建表

create table pokes(foo int,bar string);
//指定分区
create table invites(foo int,bar string) partitioned by (ds string);

浏览表

show tables

描述表

describe invites

修改表

alter table events rename to 3koobecaf;
alter table pokes add columns (new_col int)

3.3.3 DML操作

向表里加载数据

load datalocal inpath './exaples/files/kv1.txt' overwrite into table pokes;
load data local inpath './examples/files/kv2.txt' overwrite into table invites partition (ds='2008-08-15')

导入数据出HDFS

export table invites to '/department'


3.3.4 DQL操作

selects and filters

select a.foo from invites a where a.ds = '2008-08-15';
insert overwrite directory '/tmp/hdfs_out' select a.* from invires a where a.ds='2008-08-15';

group by

from invites a insert overwrite table events select a.bar,count(*) where a.foo > 0 group by a.bar;
insert overwrite table events select a.bar,count(*) from invites a where a.foo>0 group by a.bar;

多次插入

from src
insert overwrite table dest1 select src.* where src.key<100
insert overwrite table dest2 select src.key,src.value where src.key >= 100 and src.key<200;

多表联查

from pokes t1 join invites t2 on (t1.bar == t2.bar) insert overwrite table events select t1.bar,t1.foo,t2.foo;
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
13天前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
18 0
|
1月前
|
SQL JavaScript 前端开发
用Java来开发Hive应用
用Java来开发Hive应用
32 7
|
1月前
|
SQL JavaScript 前端开发
用Java、Python来开发Hive应用
用Java、Python来开发Hive应用
28 6
|
1月前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
28 0
|
1月前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
55 0
|
3月前
|
SQL 分布式计算 MaxCompute
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
|
3月前
|
存储 分布式计算 MaxCompute
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
|
2月前
|
数据可视化
Echarts数据可视化开发| 智慧数据平台
Echarts数据可视化开发| 智慧数据平台
|
2月前
|
数据可视化
Echarts数据可视化大屏开发| 大数据分析平台
Echarts数据可视化大屏开发| 大数据分析平台