问题一:大数据计算MaxCompute表返回这个错误,请问这个是需要添加额外配置还是要设置项目属性?
我参考官网文档在ide里使用spark3去访问大数据计算MaxCompute表返回这个错误,请问这个是需要添加额外配置还是要设置项目属性,没找到类似的问题解决方案?com.aliyun.odps.cupid.CupidException: This cupid task type not allowed in your project: yarn-default-default
参考回答:
这个去掉吧,conf里加其他四个就行。参考这里:https://help.aliyun.com/zh/maxcompute/user-guide/set-up-a-linux-development-environment?spm=a2c4g.11186623.0.0.19e62658HBxYSA#section-732-97j-dh3
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/616141
问题二:大数据计算MaxCompute这个问题该怎么办呢?
大数据计算MaxCompute这个问题该怎么办呢?pyODPS 0.10.7是不是没有load_resource_package方法的
参考回答:
这个版本太老了,升到0.11.5以上吧
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/616104
问题三:请问一下大数据计算MaxCompute遇到这个问题该怎么解决呀?
请问一下大数据计算MaxCompute遇到这个问题该怎么解决呀?pyODPS导入python包的时候报错
参考回答:
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/616099
问题四:dataworks整库全增量同步数据到maxcompute的实时同步任务报错了,帮忙看看呢?
dataworks整库全增量同步oceanbase数据到maxcompute的实时同步任务报错了,帮忙看看呢,配置了4000张表?
参考回答:
现在ob端确实有这个限制 表不能太多了 您看能不能拆分成两个任务
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/616082
问题五:大数据计算MaxCompute在数据分析这个界面 use生产 执行一段代码,报错,怎么解决?
大数据计算MaxCompute在数据分析这个界面 use生产 执行一段代码,想下载数据 然后 报错
目的:在数据分析界面 use 生产环境, 然后下载数据 (数据量是十几万)这咋解决呢?
参考回答:
你有条件吗?没设置条件的话直接用tunnel命令也行
或者你DataWorks群咨询下
关于本问题的更多回答可点击原文查看: