阿里云大数据ACA及ACP复习题(241~250)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云解析 DNS,旗舰版 1个月
简介: 本人备考阿里云大数据考试时自行收集准备的题库,纯手工整理的,能够覆盖到今年7月份,应该是目前最新的,发成文章希望大家能一起学习,不要花冤枉钱去买题库背了,也希望大家能够顺利通关ACA和ACP考试。

241.使用简单的数据可视化图表,可以让观察者在短时间内关注重点。上述文字体现了数据可视化的( D )优势?
A:容易记忆
B:多维展示
C:传播速度快
D:数据更直观

解析:“能够在短时间内关注重点”说明了数据直观

242.流计算的一般处理流程有数据采集、数据实时计算以及实时查询,下面关于流计算的描述,错误的是?( D )
A:流计算是实时获取来自不同数据源的海量数据,经过实时分析处理,获得有价值的信息
B:对实时处理后的数据,提供用户实时查询展示。且是一个主动推送的过程,数据更新过程中自主推送,避免了传统数据的使用时需要自主查询的情况
C:经过流处理系统处理后的数据,数据直接流出使用或存入数据库,但有时候因为需求的要求有高时效性,数据处理时间过长,无法使用,也可以丢弃数据
D:数据实时采集到数据实时计算,然后数据实时查询,不能自动推送

解析:实时计算 是通过Source到process再到Sink的过程,数据端可以通过定义实现自动数据推送功能

243.在HDFS写入数据的工作过程中,用于存储元数据的节点是( C )?
A:HDFS Client
B:DataNode
C:NameNode
D:Distributed File System

解析:Namenode是元数据存放的节点,为主要管理节点

244.以下内容属于哪种数据类型?( B )

<student>
<name>Amy</name>
<age>18</age>
</student>

A:结构化
B:半结构化
C:非结构化
D:网状数据

解析:结构化数据:简单来说是数据库可以进行二维存储;
半结构化数据:比如Xml、json等数据;
非结构化数据:如图片、视频等;
网状结构:用有向图表示实体和实体之间的联系的数据结构模型称为网状数据。

245.HDFS读取文件步骤正确的是( D )。
A:客户端与DataNode建立连接一客户端请求NameNode的元数据信息一客户端与所有的目标DataNode建立连接并读取文件一NameNode反馈目标文件Block和DataNode节点的对应关系
B:客户端与DataNode建立连接一客户端请求DataNode的元数据信息一客户端与所有的目标DataNode建立连接井读取文件
C:客户端与DataNode建立连接一客户端请求DataNodef的元数据信息一客户端与所有的目标DataNode建立连接井读取文件一读写完毕后,客户端给NameNode发生读取信息
D:客户端与NameNode建立连接一客户端请求NameNode的元数据信息一NameNode反馈目标文件Block和DataNode节点的对应关系一客户端与所有的目标DataNode建立连接并读取文件

解析:HDFS读取,NameNode负责数据的管理,DataNode负责数据的存储,客户端请求会先有NameNode交互,获取到请求数据的DataNode位置返回给客户端,客户端再指定读取datanode数据

246.数据采集多维性指的是要收集业务对象的( A )数据。
A:不同角度的业务数据
B:多种类型和维度
C:数量和来源
D:属性和数量

解析:数据多维性指的是描述数据的角度多、从不同的方面来描述数据。数据维度指的是描述数据的业务角度

247.在大数据生态体系的数据处理中,有两种计算引擎MapReduce 与Spark,两种计算引擎在数据处理的流程中有着本质区别,下面选项中关于这两种引擎的说法正确的是( AC )。
A:Spark做数据计算时,首先会从文件系统读取文件,后续为了提升计算效率,会将第一次读取的数据存入内存中,方便后续计算从内存中读取
B:MapReduce做数据计算时,首先会从文件系统读取文件,后续为了提升计算效率,会将第一次读取的数据存入内存中,方便后续计算从内存中读取
C:MapReduce做数据迭代计算时,必须从文件系统中,不停的读取写入,以完成计算
D:MapReduce跟Spark相比,处理速度更快

解析:MapReduce计算框架是基于磁盘的,做数据迭代计算时,必须从文件系统中,不停的读取写入,以完成计算,IO开销大,效率低,但适用于大数据量 Spark计算框架是基于内存的,首先会从文件系统读取文件,后续为了提升计算效率,会将第一次读取的数据存入内存中,方便后续计算从内存中读取,基于内存计算IO开销小,内存消耗大,适用于相对小数据量,计算效率要求较高的场景

248.在Hadoop的体系中,哪一个组件解决数据存储的问题?( A )
A:HDFS
B:Redis
C:MongoDB
D:MySQL

解析:HDFS(Hadoop Distributed File System)是 Hadoop 项目的核心子项目,主要负责集群数据的存储与读取

249.数据预处理是将原始数据转换为可理解的格式的过程,数据预处理的步骤不包含的选项是?( C )
A:数据集成
B:数据清洗
C:数据脱敏
D:数据归约
E:数据变换

解析:数据预处理的四个步骤分别是数据清洗、数据集成、数据变换和数据归约。

250.Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎,关于Spark的特点描述,正确的是?( ABC )
A:可以使用Python、SQL、scala、Java或R语言,统一离线计算和实时计算开发方式
B:通用的SQL分析,快速构建分析报表,运行速度快于大多数数仓计算引擎
C:大规模科学计算,支持对PB 级数据执行探索性分析
D:可以在桌面电脑上训练机器学习算法,但不能使用相同的代码扩展到包合数千台机器的集群上,需要修改代码

解析:Batch/Streaming data:统一化离线计算和实时计算开发方式,支持多种开发语言,Python、SQL、Scala、Java、R SQL analytics:通用的SQL分析快速构建分析报表,运行速度快于大多数数仓计算引擎 Data science at scale:大规模的数据科学引擎,支持PB级别的数据进行探索性数据分析,不需要使用采样 Machine learning:可以支持在笔记本电脑上训练机器学习算法,并使用相同的代码扩展到数千台机器的集群上

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
4天前
|
SQL DataWorks 数据可视化
阿里云DataWorks评测:大数据开发治理平台的卓越表现
阿里云DataWorks是一款集数据集成、开发、分析与管理于一体的大数据平台,支持多种数据源无缝整合,提供可视化ETL工具和灵活的任务调度机制。其内置的安全体系和丰富的插件生态,确保了数据处理的高效性和安全性。通过实际测试,DataWorks展现了强大的计算能力和稳定性,适用于中小企业快速搭建稳定高效的BI系统。未来,DataWorks将继续优化功能,降低使用门槛,并推出更多灵活的定价方案,助力企业实现数据价值最大化。
|
4天前
|
分布式计算 大数据 数据处理
技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
23 2
|
1月前
|
存储 分布式计算 大数据
【赵渝强老师】阿里云大数据生态圈体系
阿里云大数据计算服务MaxCompute(原ODPS)提供大规模数据存储与计算,支持离线批处理。针对实时计算需求,阿里云推出Flink版。此外,阿里云还提供数据存储服务如OSS、Table Store、RDS和DRDS,以及数据分析平台DataWorks、Quick BI和机器学习平台PAI,构建全面的大数据生态系统。
68 18
|
1月前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
3月前
|
人工智能 分布式计算 DataWorks
连续四年!阿里云领跑中国公有云大数据平台
近日,国际数据公司(IDC)发布《中国大数据平台市场份额,2023:数智融合时代的真正到来》报告——2023年中国大数据平台公有云服务市场规模达72.2亿元人民币,其中阿里巴巴市场份额保持领先,占比达40.2%,连续四年排名第一。
257 12
|
3月前
|
SQL 人工智能 大数据
阿里云牵头起草!首个大数据批流融合国家标准发布
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。
104 7
|
3月前
|
SQL 人工智能 大数据
首个大数据批流融合国家标准正式发布,阿里云为牵头起草单位!
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准 GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。
|
2月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
1月前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
307 7
|
1月前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
47 2