问题一:请问一下大数据计算MaxCompute这两个SDK有什么区别?
请问一下大数据计算MaxCompute这两个SDK有什么区别?
参考回答:
按目前MaxCompute的文档来操作吧,上边这篇可能时间比较久了,我研究一下。
https://help.aliyun.com/zh/maxcompute/user-guide/sdk-for-java?spm=a2c4g.11186623.0.i62
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593577
问题二:大数据计算MaxCompute sql任务并行度怎么提升?
大数据计算MaxCompute sql任务并行度怎么提升?
参考回答:
并行度设置 和 并行度的优化 可以参考这篇文档https://help.aliyun.com/zh/maxcompute/use-cases/optimize-sql-statements?spm=a2c4g.11186623.0.i43#section-101-eyk-y4l
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/589131
问题三:大数据计算MaxCompute的PyODPS和python udf这两者区别是?
大数据计算MaxCompute的PyODPS和python udf这两者区别是?
参考回答:
python udf使用第三方包需要通过:sys.path.insert(0, 'work/GDAL-3.0.4-cp37-cp37m-linux_x86_64.zip')
PyODPS使用第三方包方式参考这个
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593574
问题四:大数据计算MaxCompute在spark程序里面操作表数据,应该一次查询多少条 ?
大数据计算MaxCompute在spark程序里面操作表数据,应该一次查询多少条 ?
参考回答:
文档没说有查询多少条的限制。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593573
问题五:大数据计算MaxCompute spark 程序里如何访问redis?
大数据计算MaxCompute spark 程序里如何访问redis?
参考回答:
MC Spark访问外网,需要先提交申请。然后加上配置
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593571