阿里云大数据ACA及ACP复习题(361~370)

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 本人备考阿里云大数据考试时自行收集准备的题库,纯手工整理的,能够覆盖到今年7月份,应该是目前最新的,发成文章希望大家能一起学习,不要花冤枉钱去买题库背了,也希望大家能够顺利通关ACA和ACP考试(自己整理解析也需要时间,可能有更新不及时的情况哈)

361.配置阿里云DataWorks中的离线同步功能的正确步骤是什么?( A )
A:新建数据源一新建离线同步节点一选择数据来源一选择数据去向一配置字段的映射关系一配置作业速率上限、脏数据检查规则等信息一配置调度属性
B:新建数据源-选择数据来源一新建离线同步节点一选择数据去向一配置字段的映射关系一配置作业速率上限、脏数据检查规则等信息一配置调度属性
C:新建数据源一新建离线同步节点一选择数据来源一选择数据去向一配置作业速率上限、脏数据检查规则等信息一配置字段的映射关系一配置调度属性
D:新建数据源一新建离线同步节点一选择数据来源一选择数据去向一配置字段的映射关系一配置调度属性一配置作业速率上限、脏数据检查规则等信息

解析:https://help.aliyun.com/document_detail/137718.html?spm=a2c4g.11186623.0.0.7c888554Lf7Dy5
步骤一:新建离线同步节点
步骤二:配置同步网络链接
步骤三:配置数据来源与去向
步骤四:配置字段映射关系
步骤五:配置通道
步骤六:配置调度属性
步骤七:提交并发布任务

362.( C )是淘宝开源的一套高性能文件存储系统。为淘宝提供海量小文件存储,通常文件大小不超过1M,满足了淘宝对小文件存储的需求。
A:MogileFS
B:GFS
C:TFS
D:FastDFS

解析:Taobao File System(TFS)是淘宝内部使用的分布式文件系统。

363.随着大数据时代的发展,Hadoop生态圈组件越来越丰富。关于Hadoop生态组件ZooKeeper,描述正确( A )
A:用于分布式应用的高性能协调服务
B:是一种支持Apache Hadoop集昨的安装、部署、配置和管理的工具
C:是一种用于在HDFS和RDMS之问传输数据的工具
D:是一个基于工作流引整的开源框架,提供对Hadoop、MapReduce和Pig Jobs的任务调度与协调
E:是大数据集日志收集的框架

解析:ZooKeeper 是一个用于分布式应用的高性能协调服务。

364.关于阿里云大数据产品实时数仓Hologres的描述,正确的是?( ACD )
A:支持PB级数据多维分析 (OLAP) 与即席分析 (Ad Hoc)
B:支持高并发低延迟的离线数据服务 (Serving)
C:数据实时写入、实时更新,写入即可见,与Flink原生集成,支持高吞吐、低延时、有模型的实时数仓开发,满足业务洞察实时性需求
D:标准SQL协议,无缝对接主流BI和SQL开发框架,无需应用重写。支持数据湖场景,支持JSON等半结构化数据,OSS、DLF简易入仓

解析:Hologres支持高并发低延迟的在线数据服务(Serving)。 https://help.aliyun.com/document_detail/605017.html?spm=a2c4g.169917.0.i14
数据实时写入、实时更新,无需批处理,写入即可见。Hologres与Flink、Spark原生集成,支持高吞吐、低延时、有模型、高质量的实时数仓开发,满足业务洞察实时性需求。 标准SQL接口,兼容PostgreSQL 11协议,无缝对接主流BI和SQL开发框架,支持19+款主流BI工具,无需应用重写,无额外学习成本。支持数据湖场景,支持JSON等半结构化数据,OSS、DLF简易入湖入仓。 https://help.aliyun.com/document_detail/113664.html?spm=a2c4g.113648.0.0.778678251MCFeN

365.Pig是Hadoop生志圈的组件之一,Pig的数据处理语言采取 ()方式,一步一步地进行处理。( A )
A:数据流
B:并行计算
C:分布式计算
D:分布式协调服务

解析:Pig的数据处理语言是数据流方式的,一步一步的进行处理

366.大数据,指的是所涉及的数据量规模巨大到无法透过目前主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策的资讯。以下哪一个不属于大数据的4V特征?( C )
A:Volume数据体量大
B:Velocity数据变化快
C:Value价值密度高
D:Variety数据类型多

解析:大数据4V的特征:Volume规模性、Variety多样性、Velocity高速性、Value价值型

367.小明在使用阿里云Tunnel上传数据时,有时间类型Datatime数据文件log.txt内容如:20140209101000,以下上传语法正确的是( A )?
A:tunnel upload log.txt test_table -dfp "yyyy-MM-dd HH:mm:ss"
B:tunnel upload log.txt test_table -dfp "yyyyMMddHHmmss"
C:tunnel upload log.txt test_table -dfp "yyyyMMddHHmiss"
D:tunnel upload log.txt test_table -fd "yyyyMMddHHmiss"

解析:
-dfp 指定DATETIME类型数据格式,默认格式为yyyy-MM-dd HH:mm:ss。
-fd 指定本地数据文件的列分割符,默认值为英文逗号(,J12+8的数据上传,可以通过命令行指定用户数据日期格式的format pattern。
如:yyyyMMddHHmmss: 数据格式20140209101000
yyyy-MM-dd HH:mm:ss(默认):数据格式2014-02-09 10:10:00
yyyy年MM月dd日: 数据格式2014年09月01日

368.下列关于MaxCompute项目空间保护理解错误的是( D )?
A:项目空间的数据保护,是否允许数据流出项目空间,默认值为false
B:一旦项目空间开启项目空间数据保护后,所有的数据只能在项目空间内流动。
C:当需要将一个项目空间A的数据流转到项目空间B时,可以通过为A项目空间设置可信项目空间B达到需求。
D:项目空间用户角色有操作权限

解析:开启项目空间的数据保护机制。 项目空间Owner或授予Super_Administrator角色的用户有操作权限,项目空间Owner或授予Super_Administrator角色的用户有操作权限

369.DataWorks通过智能数据建模、全域数据集成、高效数据生产、主动数据治理、全面数据安全、数据分析服务六大全链路数据治理的能力,帮助企业治理内部不断上涨的“数据悬河”,释放企业的数据生产力,那么下列哪个( B )选项不属于六大链路内容
A:ER建模
B:数据存储
C:任务统一调度
D:数据库迁移

解析:DataWorks是一款工具,不会存储数据,需要添加存储计算引擎

370.基于阿里云QuickBI产品功能,以下描述错误的选项是( C )
A:支持线上、本地、云端等多种环境的数据源接入
B:支持跨源、异构的数据关联及查询
C:OLTP事务和查询处理
D:在PC端配置完成后,能在移动端和大屏终端自动适配

解析:OLAP灵活智能分析能力,自由上卷下钻、联动跳转,智能机器人预警预测分析

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
4月前
|
存储 分布式计算 大数据
【赵渝强老师】阿里云大数据存储计算服务:MaxCompute
阿里云MaxCompute是快速、全托管的TB/PB级数据仓库解决方案,提供海量数据存储与计算服务。支持多种计算模型,适用于大规模离线数据分析,具备高安全性、低成本、易用性强等特点,助力企业高效处理大数据。
240 0
|
4月前
|
数据采集 人工智能 大数据
10倍处理效率提升!阿里云大数据AI平台发布智能驾驶数据预处理解决方案
阿里云大数据AI平台推出智能驾驶数据预处理解决方案,助力车企构建高效稳定的数据处理流程。相比自建方案,数据包处理效率提升10倍以上,推理任务提速超1倍,产能翻番,显著提高自动驾驶模型产出效率。该方案已服务80%以上中国车企,支持多模态数据处理与百万级任务调度,全面赋能智驾技术落地。
496 0
|
2月前
|
人工智能 分布式计算 DataWorks
阿里云大数据AI产品月刊-2025年8月
阿里云大数据& AI 产品技术月刊【2025年 8 月】,涵盖 8 月技术速递、产品和功能发布、市场和客户应用实践等内容,帮助您快速了解阿里云大数据& AI 方面最新动态。
301 1
|
2月前
|
存储 分布式计算 资源调度
【赵渝强老师】阿里云大数据MaxCompute的体系架构
阿里云MaxCompute是快速、全托管的EB级数据仓库解决方案,适用于离线计算场景。它由计算与存储层、逻辑层、接入层和客户端四部分组成,支持多种计算任务的统一调度与管理。
283 1
|
存储 机器学习/深度学习 人工智能
阿里云ODPS:在AI浪潮之巅,铸就下一代智能数据根基
在智能爆炸时代,ODPS正从传统数据平台进化为“AI操作系统”。面对千亿参数模型与实时决策挑战,ODPS通过流批一体架构、多模态处理、智能资源调度等技术创新,大幅提升效率与智能化水平。从自动驾驶到医疗联合建模,从数字孪生到低代码AI开发,ODPS正重塑企业数据生产力,助力全球客户在算力洪流中抢占先机。
183 0
|
2月前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
193 14
|
4月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
169 4
|
3月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
160 0