问题一:请问现在大数据计算MaxCompute任务中不支持decimal数据类型了吗?
请问现在大数据计算MaxCompute任务中不支持decimal数据类型了吗?
参考回答:
这个是关的参数设置,新项目没有其他作业的话,可以设置一下,再跑一下mr任务看看。
DataWorks的SQL节点执行
setproject odps.sql.type.system.odps2=false; --关闭MaxCompute 2.0数据类型。
setproject odps.sql.decimal.odps2=false; --关闭Decimal 2.0数据类型。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593575
问题二:在大数据计算MaxCompute中查询一个表的分区数据时候,请问 partition 语法不对吗?
在大数据计算MaxCompute中查询一个表的分区数据时候,请问 partition 语法不对吗?
参考回答:
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593570
问题三:为啥大数据计算MaxCompute这个不行呀?
为啥大数据计算MaxCompute这个不行呀?
参考回答:
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593564
问题四:请问大数据计算MaxCompute,这个是什么原因?
请问大数据计算MaxCompute,这个是什么原因?
参考回答:
注意,如果使用spark 2.4.5及以上的版本,需要在代码中配置spark.sql.catalogImplementation=hive,不再需要在代码中配置spark.hadoop.odps.project.name,spark.hadoop.odps.access.id,spark.hadoop.odps.access.key,spark.hadoop.odps.end.point这几个参数
只要在代码的resources目录下(类加载器能加载的目录)创建一个名为odps.conf的文件,然后添加以下配置,注意在集群模式中需要将该文件删除:
odps.project.name=
odps.access.id=
odps.access.key=
odps.end.point= ,
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593560
问题五:大数据计算MaxCompute请问咱们阿里云dataworks不能使用视图吗?
大数据计算MaxCompute请问咱们阿里云dataworks不能使用视图吗?
参考回答:
目前公共云上通过DataWorks同步MaxCompute数据时,是不支持同步视图的 ,
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/593556