381.DataWorks数据集成支持哪些方式?( ABC )
A:离线同步
B:实时同步
C:离线全增量同步
D:不支持实时全增量
解析:链接:https://help.aliyun.com/document_detail/113298.html
DataWorks数据集成支持离线同步、实时同步,以及离线和实时一体化的全增量同步。
382.为了处理流式数据,满足流数据的应用价值,流计算系统应该具备的要求有( ACD )
A:高性能
B:精确性
C:实时性
D:分布式
解析:流计算系统要求: 高性能 、海量、实时性、分布式、易用性、可靠性
383.我们购买电影票前,常常会打开支付宝的“电影演出”小程序,看看电影口碑评分,影评的真实性会影响消费者的购买行为。收集的数据有真有假,那么会对大数据分析的结果有影响。体现了大数据的( E )特征。
A:Volume规模性
B:Veracity准确性
C:Velocity高速性
D:Variety多样性
E:Value价值性
解析:大数据的4v特征分别是Volume(大量性)、Velocity(高速性)、Variety(多样性)、Value(价值性)。根据“看看电影口碑评分,影评的真实性会影响消费者的购买行为。收集的数据有真有假,那么会对大数据分析的结果有影响。“;体现了大量的数据并没有体现大量的价值。即价值密度低,符合Value价值性
384.下列关于HDFS读写说法正确的有?( A )
A:一次写入,多次读
B:一次写入,一次读
C:多次写入,多次读
D:多次写入,一次读
解析:一次写入多次读取:HDFS的模式是一次写入多次读取,没有随机修改编辑的操作,只能对既有的数据进行追加。
385.下列关于Azkaban概念的描述错误的?( A )
A:Azkaban是由Linkedin公司推出的任务调试器,它的配置是通过简单的update方式对数据表进行修改实现
B:Azkaban使用job文件建立任务之间的依赖关系,并提供一个易用的Web界面供用户管理和调度工作流
C:Azkaban开箱即用,可以通过Shell执行Job
D:Azkaban主要用于在一个工作流内以一个特定的顺序运行一组工作和流程
解析:Azkaban是由Linkedin公司推出的一个批量工作流任务调度器,主要用于在一个工作流内以一个特定的顺序运行一组工作和流程,它的配置是通过简单的key:value对的方式,通过配置中的dependencies 来设置依赖关系。
386.Apache Spark是一种用于大规模数据处理的统一( C )引擎。
A:抽象
B:集成
C:分析
D:存储
解析:Apache Spark是用于大规模数据处理的统一分析引擎
387.Hadoop可以自动保存数据的多个副本,并且可以自动将失败的任务重新分配。上述文本体现了Hadoop的(A)特点。
A:高容错
B:高效率
C:高扩展
D:高可靠
解析:高容错:自动将失败的任务重新分配
388.Spark Streaming的执行流程中包含哪些步骤?( ACDE )
A:Input data stream
B:Show Processed Data
C:Spark Engine
D:Batches of Processed Data
E:Batches of input data
解析:Spark Streaming的执行步骤为:input data stream->spark streaming->batches of input data->spark engine->batches of processed data
389.数据可视化指使用点、线、图表、统计图或信息图表等工具对数据进行编码,在视觉上传达定量信息。下列选项中,属于数据可视化产品有( ABD )
A:Echarts
B:PowerBI
C:TXT
D:Tableau
解析:数据可视化软件有: echarts、 FineBI、PowerBI、 Tableau。
390.Spark SQL向用户提供标准的编程接口组件是?( B )
A:Metastore
B:JDBC/ODBC
C:CacheManager
D:Physical Plan
解析:https://help.aliyun.com/document_detail/162684.html Hologres为您提供完全兼容PostgreSQL的连接(JDBC/ODBC)接口,您可以通过该接口将SQL客户端工具连接至Hologres。 Hive Metastore作为元数据管理中心,支持多种计算引擎的读取操作,例如Flink、Presto、Spark等; 提供JDBC/ODBC接口供第三方工具借助Spark进行数据处理; CacheManager是Spark中用于缓存管理的组件; Physical Plan:在物理计划阶段,Spark SQL获取一个逻辑计划,并使用与Spark执行引擎匹配的物理操作来生成一个或多个物理计划,然后使用基于代价的模型在这个多个物理计划中选择最优的那个;