Hadoop-NameNode内存预估

简介: NameNode通过NetworkTopology维护整个集群的树状拓扑结构;拓扑结构的叶子节点DatanodeDescriptor是标识DataNode的关键结构。DataNode节点一般会挂载多块不同类型存储单元;StorageMap描述的正是存储介质DatanodeStorageInfo集合(Map默认长度16)。

DataNode管理信息预估

在64位JVM中
(1)DataNodeId 预计 64B
(2)DataNodeInfo 预计 114B
(3)DatanodeDescriptor 预计 100B
(4)DatanodeStorageInfo 预计 109B
假设集群中包括2000个DataNode节点
计算NameNode所需总量:

( 64 + 114 + 100 + 109 * 16 ) * 2000 = 约 4M

BlockInfo文件块预估

BlocksMap的核心功能是通过BlockID快速定位到具体的BlockInfo
BlockInfo继承自Block,除了Block对象中BlockID,numbytes和timestamp信息外
最重要的是该Block物理存储所在的对应DataNode列表信息triplets。
主要参数:
(1)假设集群中包括2000个DataNode节点
(2)每个节点10T的可用磁盘,文件块大小为256M
(3)整个集群共 81,920,000 个数据块
(4)如果三副本,并80%磁盘报警,最大可以存储约5000T数据
文件块计算
(1)文件: 224 + 2 * 文件名长度 = 250B
(2)路径: 264 + 2 * 文件名长度 = 290B
(3)Block : 152 + 72 * 副本数3 = 368B
(4)假设: 81,920,000 个文件块,对应 81,920,000 个文件,每个文件一个路径
计算NameNode所需总量:

( 250 + 290 + 368 )b * 81920000 = 约 70G
相关文章
|
8月前
|
存储 分布式计算 监控
Hadoop内存溢出
【7月更文挑战第12天】
166 8
|
9月前
|
存储 分布式计算 资源调度
如何优化Hadoop集群的内存使用?
【6月更文挑战第18天】如何优化Hadoop集群的内存使用?
191 6
|
10月前
|
存储 分布式计算 资源调度
[hadoop3.x]HDFS中的内存存储支持(七)概述
[hadoop3.x]HDFS中的内存存储支持(七)概述
120 0
|
消息中间件 存储 缓存
关于Hadoop集群物理及虚拟内存的检测的设置说明
关于Hadoop集群物理及虚拟内存的检测的设置说明
335 0
关于Hadoop集群物理及虚拟内存的检测的设置说明
|
分布式计算 Oracle Hadoop
Hadoop 最讨厌的报错:运行VirtualBox提示0x00000000错误“0x00000000指令引用的0x00000000内存该内存不能为written?
Hadoop 最讨厌的报错:运行VirtualBox提示0x00000000错误“0x00000000指令引用的0x00000000内存该内存不能为written?
616 0
|
5月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
280 6
|
5月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
127 2
|
3月前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
119 4
|
4月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
253 2
|
4月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
228 1

相关实验场景

更多