开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

hive建表的存储格式和压缩格式,选型,有什么准则吗

hive建表的存储格式和压缩格式,选型,有什么准则吗

展开
收起
游客3oewgrzrf6o5c 2022-08-24 18:11:29 402 0
1 条回答
写回答
取消 提交回答
  • 全栈JAVA领域创作者

    Hive建表的存储格式和压缩格式有很多选型,但是有一些准则可以帮助您选择。以下是一些常见的准则:

    1. 存储格式:Hive支持多种存储格式,包括TEXTFILE、SEQUENCEFILE、ORC和PARQUET。其中,ORC和PARQUET是列式存储格式,可以提供更好的查询性能和压缩比 。

    2. 压缩格式:Hive支持多种压缩格式,包括gzip、lzo和snappy等。不同的压缩格式适用于不同的数据类型和场景。例如,gzip适用于冷数据(长时间未访问的数据),而lzo适用于热数据(经常访问的数据)。

    2023-06-10 22:25:19
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载