问题一:大数据计算MaxCompute具体是dw的什么资源呢? 独享数据集成还是调度?
大数据计算MaxCompute具体是dw的什么资源呢? 独享数据集成还是调度?
参考回答:
用的dw资源组的资源,这个例子是通过apply接口把函数序列化成UDF,然后提交到MC跑的
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/589155
问题二:请问大数据计算MaxCompute dw上的python3使用的是哪个资源组的资源?
请问大数据计算MaxCompute dw上的python3使用的是哪个资源组的资源?
参考回答:
PyODPS Python类的开发目前是用的DW的资源,如果要用MC的资源可以封装Python UDF ,
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/589154
问题三:麻烦问一下大数据计算MaxCompute,那目标分区的数据会被清空吗?
麻烦问一下大数据计算MaxCompute,那目标分区的数据会被清空吗?
参考回答:
会。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/589153
问题四:大数据计算MaxCompute咱们的dataWorks平台,用mysql查询出来的结果这个可以改吗?
大数据计算MaxCompute咱们的dataWorks平台,用mysql查询出来的结果这个可以改吗?
参考回答:
看下数据分析模块。按照版本限制下载数量。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/589152
问题五:问下大数据计算MaxCompute,同样的计算逻辑和结果, 计算费用会少一些呀 ?
问下大数据计算MaxCompute,同样的计算逻辑和结果, 计算费用会少一些呀 ?
参考回答:
SQL和MapReduce的按量计算公式不一样。
SQL按量计费费用:计算输入数据量×SQL复杂度×单价
MapReduce按量计费费用:当日总计算时×单价,单作业计算时=作业运行时间(小时)×作业调用的Core数量
一个是按照数据量size(gb)来算,一个是按照core运行时长来算。
这两者没有办法比较。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/589150