问题一:大数据计算MaxCompute hash聚簇表 建表时 该怎么解决?
大数据计算MaxCompute hash聚簇表 建表时 指定sorted by和clustered by 为同一个字段,但是这个字段有重复的,能建表,能写入数据,但是select报错,该怎么解决?
参考回答:
我测试sorted by和clustered by 为同一个字段,字段有重复,可以查询成功。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580047
问题二:大数据计算MaxCompute测试环境查数据不指定分区字段就报错,是配置什么参数了吗?
大数据计算MaxCompute测试环境查数据不指定分区字段就报错,但是生产环境就可以忽略警告直接出结果,是配置什么参数了吗?
参考回答:
全表扫描的flag。
https://help.aliyun.com/zh/maxcompute/user-guide/flag-parameters?spm=a2c4g.11186623.0.i14
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580039
问题三:遇到个大数据计算MaxCompute问题,后台需要有什么配置吗?
遇到个大数据计算MaxCompute问题,我们这边有个服务由阿里云服务器迁移到自建服务器,vpc网络有配置好,endpoint由http://service.cn-hangzhou.maxcompute.aliyun-inc.com换成http://dt.cn-hangzhou.maxcompute.aliyun-inc.com,出现错误信息The specified project or table name is not valid or missing。请问这个也是endpoint的问题么,还是后台需要有什么配置?
参考回答:
配置的这两个endpoint 一个是连接MaxCompute的endpoint,一个是Tunnel endpoint,是两个不同类型的endpoint。
看报错是因为没有找到project。 https://help.aliyun.com/zh/maxcompute/user-guide/endpoints/?spm=a2c4g.11186623.0.i17 都配置成相应region的endpoint。 如果是迁移任务,应该两个类型的endpoint都是要配置的
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580037
问题四:大数据计算MaxCompute抛错:说传了多个值?
大数据计算MaxCompute抛错:TableTunnel.create_upload_session() got multiple values for argument 'partition_spec' 说传了多个值?场景是每天会有本地的数据下载下来,我用本地的调度器定时调度这个脚本,把这部分数据传到odps里面去这样子
参考回答:
里面没有project这个参数吧。 两个方法
1、DataWorks的ftp数据源
https://help.aliyun.com/zh/dataworks/user-guide/ftp-data-source/?spm=a2c4g.11174283.0.i1
2、用你现在的方法Tunnel sdk
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580036
问题五:大数据计算MaxCompute partition_spec这个参数应该怎么传?
大数据计算MaxCompute with tunnel.create_upload_session(project,table_name,partition_spec=None) as upload Hello,麻烦问下,这个方法如果我想传入非分区表,partition_spec这个参数应该怎么传?我传为None也报错,不传也报错,技术文档里面没有提到这个
参考回答:
这样传。partition_spec='pt=test'
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/580035