问题一:大数据计算MaxCompute我开启了hive兼容,但是这个和hive、spark的有差异,为什么?
大数据计算MaxCompute我开启了hive兼容,但是这个和hive、spark的有差异,这个函数我其它两个产品都用过,别人都是连起来的字段如果中间某个字段是null,是用空白替换,整个字段数量是不变的,结果MC这里导致字段数量少了,非得加nvl判断下。。。
参考答案:
看错了。 是有匹配的。 hive的concat对应的是MaxCompute的concat。我试了一下。hive返回的也是null
MaxCompute里面加不加hive兼容都是返回null
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/574951
问题二:大数据计算MaxCompute 会不把这个字段当成空白连起来吗?
大数据计算MaxCompute concat_ws 启用hive兼容的时候,某个字段是null,会不把这个字段当成空白连起来吗?我链接4个字段,其中有个字段是null,结果出来的结果是3个值,那个null的居然没用当成空白连起来,是这样子吗?
参考答案:
应该返回null ,
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/574950
问题三:大数据计算MaxCompute dataworks 统计时候缺少nvl函数怎么处理?
大数据计算MaxCompute dataworks 统计时候缺少nvl函数怎么处理?
参考答案:
https://help.aliyun.com/zh/maxcompute/user-guide/nvl?spm=a2c4g.11174283.0.i1
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/574948
问题四:大数据计算MaxCompute看起来好像又不是,单个都是1分钟多,他们不是完全并行的?
大数据计算MaxCompute看起来好像又不是,单个都是1分钟多,他们不是完全并行的?
参考答案:
在MaxCompute中,任务(Task)是其基本计算单元,所有的SQL和MapReduce功能都是通过任务来完成的。每个任务在被提交后,MaxCompute会对其进行解析以生成任务的执行计划。
尽管MaxCompute的设计初衷是为了实现并行处理以提高运算效率,但在实际运行中,由于存在任务间的依赖关系,因此并不是所有任务都能完全并行执行。一个任务的开始运行可能需要等待其依赖的任务先运行完成。这种任务间的依赖性可能会影响到整体的执行效率,使得单个任务的执行时间增加。
此外,根据实际生产项目的经验,即使是计算量较大的任务,其执行时间(包括等待时间和真正运行时间)通常也不会超过1个小时。对于使用spark等类型的作业,如果一个job启动时间较长,也是正常现象。
总的来说,虽然MaxCompute设计上支持并行处理,但由于任务间的依赖关系和特定任务类型的特性,可能会导致单个任务的执行时间超过预期。同时,也需要注意监控和管理任务的状态,以确保任务能够顺利执行并及时获取任务的执行进度。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/574947
问题五:大数据计算MaxCompute我点击logview上的M 任务,他只是显示一个total的,是吗?
大数据计算MaxCompute我点击logview上的M 任务,他只是显示一个total的,你的意思是其底层的5个instance分别的读取速度不一,是吗?
参考答案:
是的
关于本问题的更多回答可点击进行查看: