Parquet 和 ORC 到底有啥区别?别再云里雾里了,咱今天把列式存储聊明白!

简介: Parquet 和 ORC 到底有啥区别?别再云里雾里了,咱今天把列式存储聊明白!

Parquet 和 ORC 到底有啥区别?别再云里雾里了,咱今天把列式存储聊明白!

大家好,我是你们熟悉的 Echo_Wish
最近后台私信问我:“师傅,Parquet 和 ORC 到底该怎么选?看网上资料越看越迷糊,感觉它俩就是双胞胎。”

我说一句大实话:
Parquet 和 ORC 是双胞胎没错,但一个偏文科,一个偏理科,理念不同、能力不同、适用场景也不同。

今天,咱就从工程师视角把 列式存储的核心逻辑 + Parquet/ORC 内部机制 + 选型建议 讲得明明白白。
保证你看完之后,能在开技术会时拍着桌子说:

“这个任务我们必须选 ORC!” 或 “这个场景不用犹豫,直接 Parquet!”

开整!


🌟 一、为什么要列式存储?别只背概念

咱先别急着上标准答案“为分析优化、压缩率高、IO 少”这种 PPT 话。
我用一句人话解释:

行式存储=仓库把货按订单放,列式存储=仓库把货按“属性”分区放。

如果你常干 OLAP 分析,那你 90% 的时间在做:

  • 统计某列
  • 过滤某列
  • 分组某列
  • 求和某列

这种情况下,扫描全行是非常浪费的,特别是字段很多的时候 —— 行式存储就像 Excel 每次都要把整行翻出来,速度自然慢。

列式存储把字段拆开存储,扫描少、压缩高,分析快,天生适合大数据。

这就是为什么 Hive、Presto、Trino、Spark SQL、Iceberg、Hudi 都离不开它。


🌟 二、Parquet 与 ORC:它俩是在“同一个目标,不同的哲学”

你可以这么理解:

  • Parquet:跨生态、跨引擎的通用格式,偏向 Spark/Presto 等多引擎混用的体系。
  • ORC:Hadoop 家族亲儿子,为 Hive 做了非常多的专门优化。

下面我拆开它俩的内部机制讲。


🔍 三、Parquet 内部结构:字段式的精致主义者

Parquet 的结构非常“分层、规整、易扩展”。
大概长这样:

File
 ├─ Row Groups
 │   ├─ Column Chunk A
 │   │    ├─ Pages
 │   ├─ Column Chunk B
 │   │    ├─ Pages
 ...
 └─ Footer (Schema + Metadata)

💡 关键点:

1)以 Row Group 为单位组织数据

  • 一个 Row Group 通常 128MB ~ 1GB
  • 大数据引擎读取时可以并发处理多个 Row Group

2)每列的数据独立压缩

  • 每列可以不同编码,例如:

    • 字符串:DICT
    • int:RLE
    • 布尔:bit-packed

非常适合 高基数+稀疏 的列。

3)Parquet 注重跨系统兼容性

Spark、Presto、Impala、ClickHouse、Iceberg 都用它。

📌 代码示例(PySpark 写入 Parquet)

df.write.mode("overwrite").parquet("/tmp/parquet_demo")

🔍 四、ORC 内部结构:为 Hive 而生的“压缩狂魔”

ORC 的结构看起来比 Parquet 更“工程化”:

File
 ├─ Stripes (大块数据)
 │    ├─ Index Data
 │    ├─ Row Data
 │    └─ Stripe Footer
 └─ File Footer

💡 关键点:

1)以 Stripe(Stripe ≈ 64MB 默认) 为核心

一个 Stripe 包含:

  • Row Data(核心数据)
  • Index Data(索引)
  • Stripe Footer(压缩、偏移信息)

内置的 Stripe Index 能让 ORC 的谓词下推更狠。

2)压缩能力更强

ORC 默认对字符串和整数使用更 aggressive 的字典编码 + RLE2,压缩率往往比 Parquet 高 10%-30%。

3)统计信息非常丰富(Hive 优化器最爱)

例如:

  • min/max
  • distinct count
  • bloom filter
  • null count
  • column statistics

Hive 的 CBO(成本优化器)依赖这些统计信息做优化。

📌 代码示例(Spark 写 ORC)

df.write.mode("overwrite").orc("/tmp/orc_demo")

⚔️ 五、核心差异总结(最干的部分)

维度 Parquet ORC
发源地 Twitter + Cloudera Hortonworks(Hive 原生)
最佳搭档 Spark / Presto / Iceberg Hive / ETL 批处理
压缩率 更高(通常)
统计信息 足够 特别丰富
查询加速 优秀 极优秀
小文件处理 较好 略优
写入速度 稍快 略慢
跨生态兼容性 最佳 一般

写成一句话:

你要生态?选 Parquet。
你要极致压缩+极致 Hive 查询?选 ORC。


💼 六、实际工程选型建议(我最让人点赞的部分)

✔ ① Spark 生态+多系统混用

Parquet 是王道。
你很可能还有 Presto/Trino、ClickHouse、Iceberg/Hudi/Lakehouse,要兼容就选它。

✔ ② 基于 Hive 的离线数仓 + 大批量 ETL

ORC 更稳。
Hive 的优化和 ORC 一家亲,性能差异能达到 20%-50%。

✔ ③ 强压缩率需求(数据湖冷存储)

ORC 是更实惠的选择。

✔ ④ 流式写入 + 下游多引擎消费

Parquet 更均衡。

✔ ⑤ Iceberg/Hudi/Delta Lake

绝大多数推荐默认:Parquet
(数据湖标配,不解释。)


🧪 七、一个真实案例:同样 100GB 文本表 Parquet vs ORC

我们当时做了一个测试(Spark + Hive 混合场景):

  • 数据量:100GB 原始 JSON
  • 字段数:64 列
  • 业务场景:Ad-hoc 分析 + 部分 Hive Join

📊 结果非常典型:

指标 Parquet ORC
压缩后体积 16.3 GB 11.9 GB
Hive 查询性能 1.0x 1.3~1.5x
Spark 查询性能 1.0x 0.95x
兼容性 ⭕ perfect ❌ 稍弱

看结果就一句话:

  • ORC = Hive 场景“专用武器”
  • Parquet = 通用型“万能螺丝刀”

🔚 八、写在最后:格式选对,你的数仓就少走一半弯路

很多团队之所以数仓慢、查询卡、资源浪费,其实根本不是 Spark/Hive 的问题,而是——

底层文件格式选错了,天生短板再怎么调参也补不回来。

我自己的经验是:

  • 大数据生态越来越多引擎协作 → Parquet 适应性最强
  • Hive 仍然是很多公司的离线基础设施 → ORC 在这块依旧无敌
  • 数据湖时代已经到了 → Parquet 是事实标准
目录
相关文章
|
数据采集 分布式计算 监控
新一代数据质量平台datavines
新一代数据质量平台datavines
1270 0
|
数据采集 分布式计算 Hadoop
开源数据质量解决方案——Apache Griffin入门宝典(上)
开源数据质量解决方案——Apache Griffin入门宝典
2366 0
|
2月前
|
人工智能 运维 安全
SOC 2.0 来了:不是加人加班,而是加“智能”!——智能化安全运营中心的建设之道
SOC 2.0 来了:不是加人加班,而是加“智能”!——智能化安全运营中心的建设之道
241 15
|
2月前
|
机器学习/深度学习 人工智能 运维
别只盯着 CPU 爆了!一篇文章带你看懂:从指标到根因的 AIOps 自动化故障定位流水线
别只盯着 CPU 爆了!一篇文章带你看懂:从指标到根因的 AIOps 自动化故障定位流水线
358 15
|
2月前
|
SQL Java 关系型数据库
二、Hive安装部署详细过程
手把手教你完成 Hive 的安装、配置和可视化连接,适合初学者快速搭建自己的大数据分析平台。内容涵盖从环境准备、Metastore配置,到 DataGrip 连接的全流程,并附带实用的排错指南,助你轻松迈出 Hive 入门第一步。
530 14
|
9月前
|
存储 消息中间件 OLAP
基于 Flink+Paimon+Hologres 搭建淘天集团湖仓一体数据链路
本文整理自淘天集团高级数据开发工程师朱奥在Flink Forward Asia 2024的分享,围绕实时数仓优化展开。内容涵盖项目背景、核心策略、解决方案、项目价值及未来计划五部分。通过引入Paimon和Hologres技术,解决当前流批存储不统一、实时数据可见性差等痛点,实现流批一体存储与高效近实时数据加工。项目显著提升了数据时效性和开发运维效率,降低了使用门槛与成本,并规划未来在集团内推广湖仓一体架构,探索更多技术创新场景。
1653 3
基于 Flink+Paimon+Hologres 搭建淘天集团湖仓一体数据链路
|
9月前
|
存储 缓存 Apache
StarRocks+Paimon 落地阿里日志采集:万亿级实时数据秒级查询
本文介绍了阿里集团A+流量分析平台的日志查询优化方案,针对万亿级日志数据的写入与查询挑战,提出基于Flink、Paimon和StarRocks的技术架构。通过Paimon存储日志数据,结合StarRocks高效计算能力,实现秒级查询性能。具体包括分桶表设计、数据缓存优化及文件大小控制等措施,解决高并发、大数据量下的查询效率问题。最终,日志查询耗时从分钟级降至秒级,显著提升业务响应速度,并为未来更低存储成本、更高性能及更多业务场景覆盖奠定基础。
|
6月前
|
存储 分布式计算 数据处理
「48小时极速反馈」阿里云实时计算Flink广招天下英雄
阿里云实时计算Flink团队,全球领先的流计算引擎缔造者,支撑双11万亿级数据处理,推动Apache Flink技术发展。现招募Flink执行引擎、存储引擎、数据通道、平台管控及产品经理人才,地点覆盖北京、杭州、上海。技术深度参与开源核心,打造企业级实时计算解决方案,助力全球企业实现毫秒洞察。
616 0
「48小时极速反馈」阿里云实时计算Flink广招天下英雄