1.兼容廉价的硬件设备:HDFS把硬件故障看做常态进行设计,通过增加数据副本,冗余存储等机制保证数据的可靠性、安全性和高可用性。
2.流式数据访问:而非随机读写,满足大批量数据读写要求,提高吞吐量。
3.存储和管理超大文件:HDFS数据文件被分成大小相同的数据块,以块作为存储单位,默认一个数据块Data Block大小为64MB/128MB。
4.简单的文件模型:“一次写入、多次读取”,降低并发控制要求,支持高吞吐量。
5.强大的跨平台兼容性:HDFS广泛用作大量应用的首选平台。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。