大数据时代早期,Apache HDFS 是构建具有海量存储能力数据仓库的首选方案。随 着云计算、大数据、AI 等技术的发展,所有云厂商都在不断完善自家的对象存储,来更好 地适配 Apache Hadoop/Spark 大数据以及各种 AI 生态。由于对象存储有海量、安全、 低成本、高可靠、易集成等优势,各种 IoT 设备、网站数据都把各种形式的原始文件存储 在对象存储上,利用对象存储增强和拓展大数据 AI 也成为了业界共识,Apache Hadoop 社区也推出了原生的对象存储“Ozone”。从 HDFS 到对象存储,从数据仓库 到数据湖,把所有的数据都放在一个统一的存储中,也可以更加高效地进行分析和处理。
对于云上的客户来说,如何构建自己的数据湖,早期的技术选型非常重要,随着数据量 的不断增加,后续进行架构升级和数据迁移的成本也会增加。在云上使用 HDFS 构建大规 模存储系统,已经暴露出来不少问题。HDFS 是 Hadoop 原生的存储系统,经过 10 年 来的发展,HDFS 已经成为大数据生态的存储标准,但我们也看到 HDFS 虽然不断优化, 但是 NameNode 单点瓶颈,JVM 瓶颈仍然影响着集群的扩展,从 1 PB 到 100+ PB, 需要不断的进行调优、集群拆分来,HDFS 可以支持到 EB 级别,但是投入很高的运维成 本,来解决慢启动,心跳风暴,节点扩容、节点迁移,数据平衡等问题。
云原生的大数据存储方案,基于阿里云 OSS 构建数据湖是最合适的选择。OSS 是 阿里云上的对象存储服务,有着高性能、无限容量、高安全、高可用、低成本等优势, JindoFS 针对大数据生态对 OSS 进行了适配,缓存加速,甚至提供专门的文件元数据服 务,满足上云客户的各种分析计算需求。因此在阿里云上,JindoFS + OSS 成为客户采 取数据湖架构迁移上云的最佳实践。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。