【Hive】ORC、Parquet等列式存储的优点

简介: 【4月更文挑战第14天】【Hive】ORC、Parquet等列式存储的优点

image.png

列式存储(Columnar Storage)是一种优化的数据存储方式,与传统的行式存储(Row Storage)相比,在数据压缩、查询性能、IO 效率等方面具有明显的优势。在大数据领域中,ORC(Optimized Row Columnar)和 Parquet 是两种流行的列式存储格式,它们在数据压缩、查询性能、存储效率等方面有着各自的特点和优势。在接下来的内容中,我将详细分析 ORC、Parquet 等列式存储的优点,并附上相关的实例代码片段。

1. 数据压缩

1.1. 基于列的压缩

列式存储将数据按列存储,相同类型的数据在同一列中连续存储,这样可以更好地利用数据的局部性和重复性,从而提高数据的压缩率。由于同一列中的数据通常具有较高的相似性,基于列的压缩算法(如字典编码、位图编码等)可以更有效地压缩数据,进而减少存储空间的使用。

1.2. 支持多种压缩算法

ORC 和 Parquet 都支持多种压缩算法,包括 Snappy、Gzip、LZO 等。不同的压缩算法适用于不同类型的数据和查询场景,用户可以根据实际需求选择合适的压缩算法来平衡存储空间和查询性能。

2. 查询性能

2.1. 列式存储的优势

列式存储的一大优势是可以只读取查询所需的列,而不必读取整行数据。这样可以大大减少 IO 操作,提高查询性能。特别是在大数据分析场景中,通常只需要查询部分列的数据,列式存储能够更好地满足这种需求。

2.2. 谓词下推

ORC 和 Parquet 支持谓词下推(Predicate Pushdown)技术,即将查询的谓词条件推送到存储层进行处理。这样可以在存储层过滤掉不符合条件的数据,减少数据的读取量,从而提高查询性能。谓词下推技术结合列式存储的优势,可以显著提升查询性能。

2.3. 向量化查询

向量化查询(Vectorized Query)是一种高效的查询处理技术,它通过批量处理数据向量来减少 CPU 指令的开销,从而提高查询性能。ORC 和 Parquet 都支持向量化查询,能够更快地执行查询操作。

3. 存储效率

3.1. 列式存储的紧凑布局

列式存储将相同类型的数据在同一列中连续存储,这样可以降低存储空间的碎片化,并且提高数据的读取效率。相比之下,行式存储在存储同一列的不同值时可能会出现较大的存储空间浪费,特别是在存在大量 NULL 值或变长字段时。

3.2. 数据字典和统计信息

ORC 和 Parquet 支持数据字典(Dictionary Encoding)和统计信息(Statistics)等技术,可以进一步减少存储空间的使用。数据字典技术将重复出现的数据值映射为字典索引,从而减少重复存储的数据值,节省存储空间。统计信息则可以帮助优化查询计划,提高查询性能。

4. 数据格式灵活性

4.1. 复杂数据类型支持

ORC 和 Parquet 支持复杂数据类型(如结构体、数组、映射等),能够更灵活地存储和处理各种类型的数据。这使得它们更适合于大数据分析场景,能够满足复杂查询需求。

4.2. 模式演化

列式存储格式通常支持模式演化(Schema Evolution),即在不影响现有数据的情况下修改表的结构。这样可以方便地对数据模型进行调整和优化,适应业务需求的变化。

实例代码片段

以下是使用 ORC 和 Parquet 存储格式的 Hive 表的创建示例:

1. 使用 ORC 存储格式的表:

CREATE TABLE orc_table (
    id INT,
    name STRING,
    age INT
) STORED AS ORC;

2. 使用 Parquet 存储格式的表:

CREATE TABLE parquet_table (
    id INT,
    name STRING,
    age INT
) STORED AS PARQUET;

总结

ORC 和 Parquet 是两种流行的列式存储格式,在数据压缩、查询性能、存储效率、数据格式灵活性等方面都具有明显的优势。通过合理选择存储格式、压缩算法和查询优化技术,可以最大程度地提升数据处理和分析的效率,满足不同业务场景的需求。

相关文章
|
7月前
|
存储 SQL Java
bigdata-18-Hive数据结构与存储格式
bigdata-18-Hive数据结构与存储格式
71 0
|
7月前
|
SQL 消息中间件 数据处理
DataX读取Hive Orc格式表丢失数据处理记录
DataX读取Hive Orc格式表丢失数据处理记录
277 0
|
SQL 缓存 分布式计算
SparkSQL与Hive metastore Parquet转换
Spark SQL为了更好的性能,在读写Hive metastore parquet格式的表时,会默认使用自己的Parquet SerDe,而不是采用Hive的SerDe进行序列化和反序列化
SparkSQL与Hive metastore Parquet转换
|
2月前
|
SQL 存储 数据管理
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
64 2
|
4月前
|
存储 SQL 分布式计算
Hive存储表数据的默认位置详解
【8月更文挑战第31天】
345 1
|
7月前
|
SQL 存储 分布式计算
Hive【基础 01】核心概念+体系架构+数据类型+内容格式+存储格式+内外部表(部分图片来源于网络)
【4月更文挑战第6天】Hive【基础 01】核心概念+体系架构+数据类型+内容格式+存储格式+内外部表(部分图片来源于网络)
148 1
|
SQL 存储 分布式计算
大数据组件-Hive部署基于derby作为元数据存储
大数据组件-Hive部署基于derby作为元数据存储
大数据组件-Hive部署基于derby作为元数据存储
|
SQL 存储 分布式计算
大数据组件-Hive部署基于MySQL作为元数据存储
大数据组件-Hive部署基于MySQL作为元数据存储
大数据组件-Hive部署基于MySQL作为元数据存储