Hadoop大数据平台实战(01):Impala vs Hive的区别

简介: Hadoop大数据生态系统重要的2个框架Apache Hive和Impala,用于在HDFS和HBase上进行大数据分析。 但Hive和Impala之间存在一些差异--Hadoop生态系统中的SQL分析引擎的竞争。本文中我们会来对比两种技术Impala vs Hive区别?

Hadoop大数据生态系统重要的2个框架Apache Hive和Impala,用于在HDFS和HBase上进行大数据分析。 但Hive和Impala之间存在一些差异--Hadoop生态系统中的SQL分析引擎的竞争。本文中我们会来对比两种技术Impala vs Hive区别?

image


Hive介绍
Apache Hive™是开源的数据仓库框架,基于Hadoop构建,使用SQL语法读取Hadoop数据,分析保存在分布式存储中HDFS或者HBase数据库中的大型数据集。

image


Hive最早由Facebook开发,后来2008年贡献给Apache软件基金会。 此外,Hive的用途非常广泛,因为它支持分析存储在Hadoop的HDFS和其他兼容文件系统中的大量数据集。 像亚马逊S3。
Hive是一个在Hadoop集群之上运行的开源数据仓库和分析包。 Hive脚本使用类似SQL的语言,称为Hive QL(查询语言),它抽象编程模型并支持典型的数据仓库交互。 Hive使开发者能够避免接触底层机制,如(如Java)中的有向非循环图(DAG)或MapReduce程序编写Tez作业,降低复杂性。
Hadoop中SQL查询的事实标准
自2008年孵化以来,Apache Hive被认为是Hadoop中数PB数据的交互式SQL查询的事实标准。Hive使用熟悉的JDBC接口轻松与其他关键数据中心技术集成。
Hive提供类SQL的语言(HiveQL),在读取时使用模式,并将查询透明地转换为MapReduce任务,Apache Tez和Spark Jobs来分析数据。
Hive功能特性:
  • 提供索引加速分析处理
  • Hive支持多种类型的存储。 如纯文本,RCFIle,HBase,ORC
  • 此外,它还支持RDBMS中的元数据存储
  • Hive支持SQL之类的查询。 虽然我们可以隐式转换为MapReduce,Tez或Spark作业
  • 要操纵字符串,日期内置用户定义函数(UDF)
    Hive 官方网站 http://hive.apache.org/

LLAP Hive(Live Long and Process)利用具有智能内存缓存的持久查询服务器来避免Hadoop的面向批处理的延迟问题,并提供与次数较小的数据量一样快的亚秒查询响应时间,而Hive on Tez继续针对PB级数据集提供出色的批量查询性能,性能做了优化加速。
Hive中的表与关系数据库中的表类似,数据单元按从大到小单位的分类法进行组织。数据库由表组成,表由分区组成。可以通过简单的查询语言访问数据,Hive支持覆盖或附加数据。

在特定数据库中,表中的数据是序列化的,每个表都有一个对应的Hadoop分布式文件系统(HDFS)目录。每个表可以细分为多个分区,用于确定数据在表目录的子目录中的分布方式。分区内的数据可以进一步细分为存储桶。

Hive支持所有常见的数据类型,如BIGINT,BINARY,BOOLEAN,CHAR,DECIMAL,DOUBLE,FLOAT,INT,SMALLINT,STRING,TIMESTAMP和TINYINT。此外,我们也可以组合原始数据类型以形成复杂的数据类型,
Impala介绍

image


Impala是Cloudera公司开发的全新的开源大数据分析引擎MPP,它提供类SQL语法,能处理存储在Hadoop的HDFS和HBase中大数据。
不同于之前的Hive,虽然Hive也提供了SQLL语法,但Hive底层依赖于是MapReduce分析引擎,难以实现复杂查询的交互性。
Impala提高了Apache Hadoop上SQL查询性能,节约了大数据分析的时间,同时保留了熟悉的SQL语法用户体验。 使用Impala,可以实时查询存储在HDFS和Apache HBase的数据 - 支持包括SELECT,JOIN和聚合函数。 此外,Impala使用与Apache Hive相同的元数据,SQL语法(Hive SQL),ODBC驱动和用户界面UI(Hue Beeswax),为批处理或实时查询管理操作提供了熟悉且统一的平台。 (Hive开发者可以很快熟悉Impala)
Impala是一个开源的大规模并行处理(MPP)SQL引擎。 在HDFS和Apache HBase上运行查询。 它不需要先移动或转换数据。 很容易与整个Hadoop生态系统集成。 此外,对于开源交互式商业智能任务,Impala跨框架的统一资源管理使其成为标准。
image

Impala的功能包括:

  • Impala支持Hadoop分布式文件系统(HDFS)和Apache HBase
  • Impala还识别Hadoop文件格式,如文本,LZO,Avro,RCFile,Parquet
  • 它还支持Kerberos身份验证
  • 支持Apache Sentry,提供基于角色的授权。
    Impala的优点:
  • 由于在数据节点上本地处理,避免了网络传输的性能瓶颈。
  • 可以使用单个,开放且统一的元数据存储中心。
  • 不需要昂贵的数据格式转换,因此不会产生任何开销。
  • 所有数据都可以立即查询,ETL没有延迟。
  • 所有硬件都用于Impala查询以及MapReduce分析。
  • 只需要一个机器池即可扩展集群。
    官方网站:https://impala.apache.org/

参考:
https://hive.apache.org/
https://impala.apache.org/

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
8月前
|
运维 分布式计算 Kubernetes
【能力比对】K8S数据平台VS数据平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
【能力比对】K8S数据平台VS数据平台
|
8月前
|
机器学习/深度学习 存储 分布式计算
数据科学 vs. 大数据:一场“烧脑”但有温度的较量
数据科学 vs. 大数据:一场“烧脑”但有温度的较量
293 2
|
8月前
|
SQL 分布式计算 大数据
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
本文深入介绍 Hive 与大数据融合构建强大数据仓库的实战指南。涵盖 Hive 简介、优势、安装配置、数据处理、性能优化及安全管理等内容,并通过互联网广告和物流行业案例分析,展示其实际应用。具有专业性、可操作性和参考价值。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
|
10月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
546 79
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
549 6
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
325 2
zdl
|
消息中间件 运维 大数据
大数据实时计算产品的对比测评:实时计算Flink版 VS 自建Flink集群
本文介绍了实时计算Flink版与自建Flink集群的对比,涵盖部署成本、性能表现、易用性和企业级能力等方面。实时计算Flink版作为全托管服务,显著降低了运维成本,提供了强大的集成能力和弹性扩展,特别适合中小型团队和业务波动大的场景。文中还提出了改进建议,并探讨了与其他产品的联动可能性。总结指出,实时计算Flink版在简化运维、降低成本和提升易用性方面表现出色,是大数据实时计算的优选方案。
zdl
616 56
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
742 4
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
603 2
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
511 1