orc格式和parquet格式对比

简介:

相比传统的方式存储引擎,列式存储引擎具有更高的压缩比,更少的IO操作而备受青睐,尤其是在数据列column数很多,单词操作仅针对若干列的情景,列式存储引擎的性价比更高.
在互联网数据应用场景下,大部分情况下,数据很大且数据字段很多,但每次查询数据只针对其中的少数几行,这时候列式存储是极佳的选择,目前在开源实现中,最有名的列式存储引擎parquet 和orc ,在最近一年内,他们都晋升apache顶级项目 可见它的重要性,本文尝试比较这两种存储引擎.

Apache Parquet
源自google Dremel 系统,Parquet 相当一Dremel中的数据存储引擎,而Apache顶级开源醒目 Drill正式Dremel的开源实现.
Apache Parquet 最初的设计动机是存储嵌套式数据,比如Protocolbuffer thrift json 等 将这类数据存储成列式格式以方便对其高效压缩和编码,且使用更少的IO操作取出需要的数据,也是Parquet 相比于ORC的优势,它能透明的将protobuf 和thrift被广泛的使用的今天,于parquet 进行集成,是一件非常容易和自然地事情,除了上述优势外,相比于ORC,Parquet 没有太多其他可圈可点的地方,比如他不支持uodate操作(数据写成后不可修改),不支持ACID等.

Apache ORC
ORC(optimizedRC File) 存储源自RC(RecordCloimnar File)这种存储格式,RC是一种列式存储引擎,对schema演化(修改schema需要重新生成数据)支持较差,主要是在压缩编码,查询性能方面做了优化.RC/ORC最初是在Hive中得到使用,最后发展势头不错,独立成一个单独的项目.Hive1.xbanbendu版本对事物和update操作的支持,便是给予ORC实现的(其他存储格式暂不支持).
OCR发展到今天,已经具备一些非常高级的feature,比如支持update操作,支持ACID,支持struct,array复杂类型.你可以使用复杂类型构建一个类似parquet的嵌套式数据架构,但层数非常多时,写起来非常麻烦和复杂,而parquet提供的schema表达方式更容易表示出多级嵌套的数据类型.

Parquet 与 ORC对比
image

image
(图片来自网络)

相关文章
|
6月前
|
Java Apache
导出csv格式的文件
导出csv格式的文件
57 0
|
5月前
|
存储 分布式计算 大数据
MaxCompute产品使用问题之创建了oss外表,格式指定的parquet,然后执行的写入,发现不是标准parquet的格式,该怎么办
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
SQL 存储 分布式计算
Hive学习---6、文件格式和压缩
Hive学习---6、文件格式和压缩
Hive学习---6、文件格式和压缩
|
SQL JSON HIVE
Json 内容转换为 Hive 所支持的文本格式2 | 学习笔记
快速学习 Json 内容转换为 Hive 所支持的文本格式2
130 0
Json 内容转换为 Hive 所支持的文本格式2  |  学习笔记
|
存储 分布式计算 NoSQL
Hadoop支持的文件格式之Parquet(上)
Hadoop支持的文件格式之Parquet(上)
517 0
Hadoop支持的文件格式之Parquet(上)
|
分布式计算 Hadoop
Hadoop支持的文件格式之Parquet(下)
Hadoop支持的文件格式之Parquet(下)
486 0
Hadoop支持的文件格式之Parquet(下)
Biopython:Fasta格式转CSV格式
Biopython:Fasta格式转CSV格式
387 0
Biopython:Fasta格式转CSV格式
CSV 文档格式
csv 中的第一行表示字段名,第二行表示字段值 比如你要实现下列静态数据: [ { "x": "1月", "y": 2, "s": "蒸发量" }, { "x": "1月", "y": 2.
6539 0
|
SQL HIVE
创建带压缩格式的orc表
文件存储格式: [STORED AS file_format]
1870 0