【Hive】Hive的两张表关联,使用MapReduce怎么实现?

简介: 【4月更文挑战第16天】【Hive】Hive的两张表关联,使用MapReduce怎么实现?

image.png

在 Hive 中,当两张表进行关联查询时,Hive 会根据查询语句生成对应的 MapReduce 作业来执行查询操作。关联查询的实现通常涉及两个步骤:首先是将查询语句转换成 MapReduce 作业,然后在 Hadoop 集群上执行生成的 MapReduce 作业。在接下来的内容中,我将详细分析如何使用 MapReduce 实现 Hive 的两张表关联查询,并提供示例代码片段来说明每个步骤的实现细节。

1. 查询语句转换成 MapReduce 作业

当执行 Hive 查询时,Hive 会根据查询语句生成对应的执行计划,然后将执行计划转换成 MapReduce 作业。在关联查询的情况下,通常会生成多个 MapReduce 作业来处理不同的阶段。以下是一个简单的关联查询的示例查询语句:

SELECT *
FROM table1 t1
JOIN table2 t2 ON t1.id = t2.id;

1.1. 执行计划生成

首先,Hive 会根据查询语句生成执行计划。在关联查询的情况下,执行计划通常包括以下几个步骤:

  • 扫描表:对参与关联的每张表进行扫描,读取数据。
  • 过滤:根据查询条件对读取的数据进行过滤。
  • 连接:将两张表的数据进行连接。
  • 输出:输出查询结果。

1.2. 转换成 MapReduce 作业

根据执行计划,Hive 会将查询转换成一系列的 MapReduce 作业。每个 MapReduce 作业负责执行执行计划中的一个阶段。在关联查询的情况下,通常会生成以下几个 MapReduce 作业:

  • Map 作业:对每张表进行扫描,并进行数据过滤。
  • Reduce 作业:将两张表的数据进行连接,并输出查询结果。

2. 在 Hadoop 集群上执行 MapReduce 作业

生成 MapReduce 作业后,Hive 会将作业提交到 Hadoop 集群上执行。在 Hadoop 集群上执行 MapReduce 作业通常涉及以下几个步骤:

2.1. 作业提交

Hive 会将生成的 MapReduce 作业提交到 YARN ResourceManager 上进行调度。ResourceManager 根据集群资源情况将作业分配给合适的节点执行。

2.2. 节点任务执行

一旦作业被分配到节点上执行,NodeManager 会启动对应的任务。对于 Map 作业,每个节点会启动多个 Mapper 进程来处理数据;对于 Reduce 作业,每个节点会启动多个 Reducer 进程来执行数据连接和输出操作。

2.3. 数据传输和处理

在 Map 作业中,Mapper 进程会读取表数据,并根据查询条件进行过滤。在 Reduce 作业中,Reducer 进程会接收来自不同 Mapper 的数据,并进行连接操作。数据的传输和处理通常涉及网络通信和数据缓存。

2.4. 输出结果

最后,Reduce 作业会将连接后的结果输出到 HDFS 或其他存储系统中。一旦作业执行完成,Hive 会收集作业的执行结果,并返回给用户。

示例代码片段

以下是一个简单的示例代码片段,演示了如何在 Hive 中执行关联查询,并将查询转换成 MapReduce 作业:

-- 创建两张表
CREATE TABLE table1 (
    id INT,
    name STRING
);

CREATE TABLE table2 (
    id INT,
    age INT
);

-- 插入数据
INSERT INTO table1 VALUES (1, 'Alice'), (2, 'Bob'), (3, 'Charlie');
INSERT INTO table2 VALUES (1, 25), (2, 30), (4, 35);

-- 执行关联查询
SELECT *
FROM table1 t1
JOIN table2 t2 ON t1.id = t2.id;

以上代码片段演示了如何创建两张表、插入数据,并执行关联查询。Hive 会根据查询语句生成执行计划,并将执行计划转换成 MapReduce 作业在 Hadoop 集群上执行。

相关文章
|
4月前
|
存储 SQL 分布式计算
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
268 0
|
SQL 存储 分布式计算
HADOOP MapReduce 处理 Spark 抽取的 Hive 数据【解决方案一】
开端: 今天咱先说问题,经过几天测试题的练习,我们有从某题库中找到了新题型,并且成功把我们干趴下,昨天今天就干了一件事,站起来。 沙问题? java mapeduce 清洗 hive 中的数据 ,清晰之后将driver代码 进行截图提交。
288 0
HADOOP MapReduce 处理 Spark 抽取的 Hive 数据【解决方案一】
|
SQL 大数据 HIVE
hive在E-MapReduce集群的实践(二)集群hive参数优化
本文介绍一些常见的集群跑hive作业参数优化,可以根据业务需要来使用。 提高hdfs性能 修改hdfs-site,注意重启hdfs服务 dfs.client.read.shortcircuit=true //直读 dfs.
7514 0
|
SQL Java Apache
一脸懵逼学习Hive的安装(将sql语句翻译成MapReduce程序的一个工具)
Hive只在一个节点上安装即可: 1.上传tar包:这个上传就不贴图了,贴一下上传后的,看一下虚拟机吧: 2.
1625 0
|
SQL 分布式计算 Hadoop
HDFS+MapReduce+Hive+HBase十分钟快速入门
1.     前言 本文的目的是让一个从未接触Hadoop的人,在很短的时间内快速上手,掌握编译、安装和简单的使用。 2.     Hadoop家族 截止2009-8-19日,整个Hadoop家族由以下几个子项目组成: 成员名 用途 Hadoop Common Hadoop体系最底层的一个模块,为Hadoop各子项目提供各种工具,如:配置文件和日志操作等。
1302 0
|
4月前
|
分布式计算 Hadoop
Hadoop系列 mapreduce 原理分析
Hadoop系列 mapreduce 原理分析
40 1
|
7月前
|
分布式计算 Hadoop 大数据
Hadoop学习:深入解析MapReduce的大数据魔力之数据压缩(四)
Hadoop学习:深入解析MapReduce的大数据魔力之数据压缩(四)
|
7月前
|
分布式计算 Hadoop 大数据
Hadoop学习:深入解析MapReduce的大数据魔力(三)
Hadoop学习:深入解析MapReduce的大数据魔力(三)
|
4月前
|
存储 分布式计算 负载均衡
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
63 0