大数据— Hadoop

简介: 大数据— Hadoop

一、单选

1、以下哪个不是HDFS的守护进程==( C )==


A、secondarynamenode

B、datanode

C、mrappmaster/yarnchild

D、namenode


Hadoop五个守护进程:namenode datanode secondarynamenode resourcemanager nodemanager


提交了mapreduce任务才会有mappmaster/yarnchild进程


2、下面关于hdfs中SecondaryNameNode描述正确的一项是==( C )==


A、它是NameNode的热备

B、它对内存没有要求

C、它的目的是帮助NameNode合并editlog,减少NameNode 启动时间

D、SecondaryNameNode应与NameNode 部署到一个节点


SecondaryNameNode它不是namenode的冗余守护进程,而是提供周期检查点和清理任务。帮助namenode合并editslog,减少namenode启动时间。


3、关于HDFS安全模式说法正确的是==( B )==


A、在安全模式下只能写不能读

B、在安全模式下只能读不能写

C、在安全模式下读写都不允许

D、在安全模式下读写都可以


4、下列哪个属性是hdfs-site.xml中的配置==( A )==


A、dfs.replication

B、fs.defaultFS

C、mapreduce.framework.name

D、yarn.resourcemanager.address


dfs.replication:hdfs.site.xml (设置备份文件块数 节点目录 本地系统路径)


fs. defaultFS:core.site.xml


yarn.resourcemanager.address:yarn-site.xml


mapreduce.framework.name:mapred.site.xml (yarn指定运行在yarn上)


5、关于Hadoop技术描述错误的是==( C )==


A、HDFS是一个分布式文件系统

B、联盟链

C、HDFS适合存储大量的小文件

D、HDFS存储空间由数据节点数决定


HDFS不适合大量小文件的存储,因namenode将文件系统的元数据存放在内存中,因此存储的文件数目受限于 namenode的内存大小。HDFS中每个文件、目录、数据块占用150Bytes。如果存放的文件数目过多的话会占用很大的内存


6、现在在hadoop集群当中的配置文件中有这么两个配置,请问假如集群当中有一个节点宕机,主节点namenode需要多长时间才能感知到==( B )==

<property>
<name>dfs.heartbeat.interval</name>
<value>3</value>
</property>
<property>
<name>heartbeat.recheck.interval</name>
<value>2000</value>
</property>


A、26秒

B、34秒

C、30秒

D、20秒


HDFS集群的datnaode掉线超时时长的计算公式为: timeout = 10 * dfs.heartbeat.interval + 2 * heartbeat.recheck.interval,


不过heartbeat.recheck.interval的单位是ms,dfs.heartbeat.interval的单位是s


7、Hadoop-2.6.5集群中的HDFS的默认的数据块的大小是==( C )==


A、32M

B、64M

C、128M

D、256M


8、如果我们现有一个安装2.6.5版本的hadoop集群,在不修改默认配置的情况下存储200个每个200M的文本文件,请问最终会在集群中产生多少个数据块(包括副本)( D )


A、200

B、40000

C、400

D、1200


在默认情况下,HDFS集群默认存储文件3份,并且大文件会按照128M的数据块大小进行切割分散存储。所以题目中每个文件分为两块,总数据块有(200 * 2)= 400个。再加上会存储三份,所以 400 * 3 = 1200


9、Hadoop-2.6.5集群中的HDFS的默认的副本块的个数是==( B )==


A、1

B、2

C、3

D、4


HDFS集群采取分散存储 + 冗余存储的策略,用户上到HDFS集群的文件,HDFS集群会为它存储多份。默认是3份


10、请问以下哪个命令组成是错误的==( B )==


A、sbin/stop-dfs.sh

B、sbin/hdfs dfsadmin -report

C、bin/hadoop namenode -format

D、bin/hadoop fs -cat /hadoopdata/my.txt


sbin =shell bin所以都是.sh 的脚本


sbin目录下都是些脚本


11、下列哪个元素不属于元数据内容(metadata content)( D )


A、link

B、title

C、script

D、embed


metadata content包括:base、link、meta、noscript、template、style、script、title等


embed是HTML5中新增的标签,可以在页面中嵌入任何类型的文档。



相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
22天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
49 2
|
22天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
10天前
|
分布式计算 Hadoop 大数据
[大数据] mac 史上最简单 hadoop 安装过程
[大数据] mac 史上最简单 hadoop 安装过程
|
24天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
70 1
|
25天前
|
分布式计算 资源调度 Hadoop
Apache Hadoop入门指南:搭建分布式大数据处理平台
【4月更文挑战第6天】本文介绍了Apache Hadoop在大数据处理中的关键作用,并引导初学者了解Hadoop的基本概念、核心组件(HDFS、YARN、MapReduce)及如何搭建分布式环境。通过配置Hadoop、格式化HDFS、启动服务和验证环境,学习者可掌握基本操作。此外,文章还提及了开发MapReduce程序、学习Hadoop生态系统和性能调优的重要性,旨在为读者提供Hadoop入门指导,助其踏入大数据处理的旅程。
103 0
|
2月前
|
消息中间件 SQL 分布式计算
大数据Hadoop生态圈体系视频课程
熟悉大数据概念,明确大数据职位都有哪些;熟悉Hadoop生态系统都有哪些组件;学习Hadoop生态环境架构,了解分布式集群优势;动手操作Hbase的例子,成功部署伪分布式集群;动手Hadoop安装和配置部署;动手实操Hive例子实现;动手实现GPS项目的操作;动手实现Kafka消息队列例子等
21 1
大数据Hadoop生态圈体系视频课程
|
5月前
|
分布式计算 资源调度 搜索推荐
《PySpark大数据分析实战》-02.了解Hadoop
大家好!今天为大家分享的是《PySpark大数据分析实战》第1章第2节的内容:了解Hadoop。
49 0
《PySpark大数据分析实战》-02.了解Hadoop
|
5天前
|
分布式计算 大数据 BI
MaxCompute产品使用合集之MaxCompute项目的数据是否可以被接入到阿里云的Quick BI中
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5天前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之怎样可以将大数据计算MaxCompute表的数据可以导出为本地文件
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。