开发者社区 > 大数据与机器学习 > 开源大数据平台 E-MapReduce > 正文

Lakehouse中使用了什么技术来减少小文件的产生?

Lakehouse中使用了什么技术来减少小文件的产生?

展开
收起
游客lmkkns5ck6auu 2022-07-28 16:24:02 346 0
1 条回答
写回答
取消 提交回答
  • 1)优化Delta表写入;Data bricks对Delta表的写入过程进行了优化,对每个partition使用一个专门的executor来合并其它executor对该partition的写入,从而避免了小文件的产生。

    2)自动合并小文件:在每次向Delta表中写入数据之后,会检查Delta表中的表文件数量,如果Delta表中的小文件(size<128MB 则视为小文件)数量达到阂值,则会执行一次小文件合并,将Delta表中的小文件合并为一个新的大文件。

    3)手动合并小文件:除了自动合并,Databricks还提Opitmize命令,使用户可以手动合并小文件,优化表结构,使得表文件的结构更加紧凑。

    以上内容摘自《Databricks数据洞悉》电子书,点击https://developer.aliyun.com/topic/download?id=8545可下载完整版

    2022-07-29 10:32:58
    赞同 展开评论 打赏

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

相关电子书

更多
听云平台业务数据实时处理及性能可视化 立即下载
朱翥、贺小令|更快更稳更易用:Flink 自适应批处理能力演 立即下载
基于streaming构建统一的数据处理引擎的挑战与实践 立即下载